Skip to main content

Full text of "Le Scienze, n. 102"

See other formats


LE SCIENZE 



.SCI ENTI ne 
AMERICAN 



numero 102 
febbraio 1977 
anno x 
volume xvtu 



Per meo» del uuadro di comando del comandante dell'equipaggio di 
combattimento di un missile Minuleman 111 si può controllare il 
lancio contemporaneo di 10 missili. La tastiera (ih primo piano} è quella 



del sistema Command Data Buffer, per mezzo del quale e possibile mo- 
dificare il bersaglio dei missili nello spazio di 36 minuti. Il sistema ope- 
ra per mezzo di elaboratori elettronici installati nei missili stessi. 




La guerra nucleare limitata 

Gli Stati Uniti potrebbero impegnarsi nella preparazione di una guerra 
limitata ad attacchi alle basi militari, con un numero relativamente 
basso di vittime tra i civili. Si tratta dì un programma realizzabile? 

di Sidney D. Drcll e Frank voti Hippel 



Quadro di comando del vicecomandanle dell'equipaggio di combat- 
timento di un Minuleman II. I quadri di comando sono in centri di 



lancio sotterranei. Gli USA hanno 450 Minuleman 11 e 550 Minuteman 
IH, questi ultimi con veicoli di rientro a testale multiple indipendenti. 



Da più di un decennio la politica 
strategica degli Stati Uniti è do- 
minata dal riconoscimento e dal- 
l'accettazione di alcuni semplici fatti: pri- 
mo, che americani e russi sono ostaggi 
nucleari gli uni degli altri; secondo» che 
nel caso di una guerra nucleare né gli 
Stati Uniti né l'Unione Sovietica potreb- 
bero difendersi dal virtuale annientamen- 
to; terzo, che anche se una delle due 
parli dovesse aprire le ostilità con un 
massiccio attacco preventivo, all'altra ri- 
marrebbe sempre una capacità di «di- 
struzione sicura», vale a dire la possibili- 
tà di devastare il paese attaccante. In una 
forma o nell'altra questo riconoscimento 
ha inciso profondamente sulla maggior 
parte della dissuasione reciproca nell'ul- 
timo quarto di secolo. 

Tuttavia è stato anche ammesso che 
da entrambe le parti si potrebbero utiliz- 
zare armi nucleari rimanendo entro certi 
limiti, in modo che i danni non arrivino 
alla devastazione completa. Nel 1970 il 
presidente americano Nìxon sottolineò 
l'importanza di avere delle alternative 
alla rappresaglia massiccia per risponde- 
re a un attacco di proporzioni ridotte (o 
anche accidentale). Tale formulazione del 
concetto di risposta flessibile di per sé 
non aveva niente di nuovo. Da molti 
anni gli Stati Uniti hanno l'alternativa di 
sferrare un attacco nucleare limitato in- 
vece di un attacco integrale. I requisiti 
della risposta flessibile sono stati però 
estesi dall'ex segretario alla difesa Ja- 
mes R. Schiesinger in una deposizione al 
Congresso il 4 marzo 1974. Secondo la 
sua formulazione, gli Stati Uniti dovreb- 
bero includere, nel proprio repertorio di 
risposte flessibili, la possibilità di rispon- 



dere a un attacco nucleare limitato con at- 
tacchi selezionati e, in particolare, con a- 
zioni di counterforce, ossia azioni paraliz- 
zanti dirette esclusivamente contro instal- 
lazioni militari nemiche. Secondo Schie- 
singer tali azioni sarebbero state qualitati- 
vamente diverse dagli attacchi intenziona- 
li ai centri abitati, riducendo la probabili- 
tà di passare con lenta e costante progres- 
sione da una guerra nucleare Limitata a uno 
scambio massiccio, il quale porterebbe a 
un numero elevato dì vittime tra la popo- 
lazione civile; inoltre la capacità di una ri- 
sposta flessibile avrebbe reso più credibile 
la possibilità di un attacco nucleare statu- 
nitense aumentando in tal modo il potere 
contrattuale delle forze nucleari america- 
ne nei confronti internazionali. 

A partire dal 1974 Schiesinger e altri 
portavoce della difesa hanno messo in 
rilievo quelli che ora essi sembrano con- 
siderare due nuovi ingredienti necessari 
di una strategia basata sulla risposta fles- 
sibile. Uno è lo sviluppo di missili bali- 
stici intercontinentali (ICBM) capaci di 
distruggere obiettivi militari russi «du- 
ri», come, per esempio, i silos corazzati 
che pongono i missili al riparo dei danni 
causati da un'esplosione nucleare. L'al- 
tro è una notevole espansione del pro- 
gramma di difesa civile, che dagli inizi 
degli anni sessanta è rimasto in gran 
parte lettera morta. Proteggendo la po- 
polazione civile dai danni di attacchi nu- 
cleari limitati sferrati dai russi, il pro- 
gramma di difesa civile avrebbe lo scopo 
di accrescere la credibilità dell'atteggia- 
mento americano riguardo a una guerra 
nucleare limitata. L'accentuazione di 
questi nuovi elementi dà maggior peso 
all'obiettivo di raggiungere la capacità di 



combattere e «vincere» una guerra nu- 
cleare limitata. 

Questo proposto mutamento di strate- 
gia, lo sviluppo delle armi e le misure di 
difesa civile che vengono propugnati a 
suo sostegno sono stati attaccati grosso 
modo da due punti di vista. Primo, cal- 
coli particolareggiati basati sulle proprie- 
tà delle armi nucleari del prossimo de- 
pennio fanno pensare che il numero delle 
vittime di un qualsiasi attacco militar- 
mente significativo alla forza missilistica 
sarebbe talmente elevato, da far perdere 
ogni valore al concetto di guerra nucleare 
limitata. Secondo, una strategia dì attac- 
chi fondata sulla capacità di distruggere 
gli ICBM nemici aumenta le probabilità 
di una guerra nucleare. 

parlando nel marzo del 1974 davanti a 
* un sottocomitato del Comitato sena- 
toriale delle relazioni con l'estero, Schie- 
singer difese la propria tesi, favorevole 
alla strategia della counterforce dicendo 
che un attacco di quel tipo sferra- 
to contro gli Stati Uniti avrebbe pro- 
babilmente provocato «centinaia di mi- 
gliaia» di vittime «rispetto alle decine e 
centinaia di milioni» che si sarebbero 
potute contare in caso di uno scambio 
nucleare totale. Parecchi senatori rima- 
sero scettici sulla possibilità che un at- 
tacco militarmente significativo provochi 
un numero di vittime così ridotto; il se- 
natore del New Jersey, Clifford P. Case, 
in particolare, chiese che venissero forni- 
te ulteriori spiegazioni sulle basi da cui si 
era partiti per calcolare il numero delle 
vittime. Nel mese di settembre Schiesin- 
ger ritornò con alcune cifre, che il Di- 
partimento della difesa aveva ricavato, 



valendosi di un elaboratore elettronico, 
sulle conseguenze di una guerra nucleare 
limitata. Da quei calcoli risultava che, 
disponendo e facendo pieno uso di un 
esteso sistema di protezione delia popo- 
lazione civile, un attacco russo a tutti i 
1054 ICBM Minuteman e Titan con- 
dotto con una testata da un megaton 



su ogni sìngolo silo corazzato avrebbe 
causato la morte di circa 800 000 civili. 
Schlesinger concluse dicendo che «la pro- 
babilità di attacchi nucleari limitati non 
può essere contestata in base all'assunto 
che ne risulterebbero molti morti e feriti 
tra i civili». 

Alcuni senatori rimasero ancora scetti- 





CAUSA 



RADIAZIONI 
TERMICHE 



ESPLOSIONE 



RADIAZIONI 
NUCLEARI 



EFFETTO 



USTIONI E INCENDI, POSSIBILE TEMPESTA DI FUOCO 



VITTIME PROVOCATE DAL CROLLO DI EDIFICI E DAI 
VETRI INFRANTI 



MORTI DA RADIOATTIVITÀ 



Gli effetti immediati di un'esplosione nucleare .sono dovuti alle radiazioni nucleari iniziali, allo 
voo ■.lumen lo d'aria e alle radiazioni termiche. Qui viene dalo il raggio approssimativo a cui i 
vari effetti sarebbero sensibili in caso di esplosione vicino al suolo di una testata da un megaton. 



DOSE (REM) 


EFFETTO 


SE RICEVUTA NELL'ARCO DI 
UNA SETTIMANA 


SE RICEVUTA NELL'ARCO DI 
UN MESE 


150 


200 


SOGLIA PER MALATTIE DA 
RADIOATTIVITÀ 


250 


350 


PUÒ MORIRE IL 
5 PER CENTO 


450 


600 


PUÒ MORIRE IL 
50 PER CENTO 



Gli effetti biologici delle radiazioni nucleari variano a seconda del tasso con cui una dose viene 
ricevuta. La dose unitaria, il rem, tiene conto dell'efficacia relativa dei vari tipi di radiazione. 



ci e fu chiesto al Congressional Office 
of Technology Assessment (OTA) di ri- 
vedere i calcoli del Dipartimento della 
difesa. Un gruppo di esperti, che com- 
prendeva uno degli autori di questo arti- 
colo (Drell), presentò nel febbraio del 
1975 una propria relazione, in cui si 
affermava che «il numero delle vittime 
previste per gli attacchi in questione ri- 
sultava notevolmente troppo ridotto, 
perché nei calcoli non si era tenuto conto 
in nessuna misura dei danni a media e 
lunga scadenza» delle esplosioni nuclea- 
ri. Mettendo in rilievo che l'attacco rus- 
so postulato dai Dipartimento della dife- 
sa «non era manifestamente inteso a mas- 
simizzare la distruzione degli ICBM a- 
mericani», gli esperti sostenevano che un 
vero sforzo russo tendente a provocare i 
massimi danni alle forze strategiche ame- 
ricane con armi attualmente già messe a 
punto o in fase di sviluppo avrebbe in 
realtà «inflitto danni notevoli alla socie- 
tà americana». Gli esperti sollevavano 
questioni specifiche su alcuni dei presup- 
posti su cui si basavano i calcoli del Di- 
partimento della difesa, e chiedevano an- 
che delle stime relative alla probabile enti- 
tà dei danni inferii agli obiettivi militari 
americani da certi attacchi postulati. 
Questo è un punto critico, perché sareb- 
be fuorviarne calcolare un numero ridot- 
to di vittime per un attacco diretto alla 
forza missilistica di secondaria importan- 
za e quindi improbabile. 

In risposta alle critiche del gruppo di 
esperti, gli analisti del Dipartimento del- 
la difesa mìsero alla prova la sensibilità 
dei loro calcoli alle premesse contestate 
dagli esperti e valutarono 'l'efficacia di 
vari possibili attacchi russi. Nelle righe 
che seguono considereremo questi pro- 
blemi e alcuni dei fattori tecnici che ne 
stanno alla base. Ci rifaremo in parte ai 
risultati del Dipartimento della difesa, 
che furono resi pubblici nel luglio del 
1975, e in parte anche ad analisi indipen- 
denti, prodotte da Henry C. Kelly, del 
personale dell'Office of Technology As- 
sessment, in collaborazione con Richard 
G. Garwin e uno di noi (von Hippel), e 
presentate al Comitato delle relazioni con 
l'estero quello stesso settembre. Ciò che 
ne emerge è questo: primo, che attacchi 
di natura tale da causare un numero 
relativamente ridotto di vittime sarebbe- 
ro insignificanti dal punto di vista mili- 
tare; secondo, che attacchi tali da inflig- 
gere danni notevoli alle forze strategiche 
americane provocherebbero un numero 
elevatissimo di vittime fra la popolazione 
civile; terzo, che anche l'attacco contro 
la forza missilistica più organico fra quel- 
li che venivano postulati lascerebbe gli 
Stati Uniti con una capacità di rappresa- 
glia così massiccia da far apparire ineffi- 
cace, dal punto di vista russo, questo ti- 
po di strategìa. 

Incominceremo con l'esaminare le tec- 
niche impiegate per calcolare le vitti- 
me che un attacco nucleare può causare 
fra la popolazione civile. Il numero più o 
meno alto di morti e feriti dipende in 
misura notevole da molti fattori, quali la 



natura dell'attacco, le condizioni atmo- 
sferiche e la protezione offerta dal siste- 
ma di difesa civile. Tuttavia la fisica di 
base degli effetti delle testate nucleari è 
abbastanza ben accertata e ampiamente 
conosciuta; la sua esposizione più orga- 
nica si trova in The Ef/ects of Nuclear 
Weapans. una pubblicazione del Diparti- 
mento della difesa e dell'Atomic Energy 
Commìssion, a cura di Samuel Glassto- 
ne, edita originariamente nel 1957 e ri- 
stampata in edizione riveduta nel 1962, 

Per un'esplosione nucleare a bassa 
quota che liberi una quantità di energia 
equivalente a un milione di tonnellate 
(un megaton) di tritolo, gii effetti imme- 
diati dell'esplosione, del calore e delle 
radiazioni nucleari si estenderebbero per 
un raggio di 16 chilometri intorno al 
punto zero. Nel caso di bersagli militari 
ubicati nelle vicinanze di centri abitati, 
come i cantieri navali, le basi dei som- 
mergibili lanciamìssili e alcuni centri di 
comando, il Dipartimento della difesa ha 
calcolato che il solo scoppio di una testata 
di un megaton, esplosa abbastanza in 
alto da escludere che la ricaduta radioat- 
tiva locale costituisca un rischio, provo- 
cherebbe un numero di vittime compreso 
fra 50 000 e 100 000. Per gli obiettivi 
militari in luoghi a bassa densità di po- 
polazione, le vittime di questi effetti im- 
mediati sarebbero molto più ridotte. Nel 
caso di bersagli di questo genere le vitti- 
me fra i civili sarebbero provocate per la 
maggior parte dalla ricaduta radioattiva, 
e il fallout di un attacco russo a una base 
di missili Minuteman potrebbe essere le- 
tale per molte centinaia di chilometri 
sottovento. Considerando le armi messe 
a punto a tutt'oggi o che con ogni pro- 
babilità saranno disponibili nel prossimo 
decennio, un attacco di questo genere 
potrebbe essere compiuto con uno o due 
megaton di esplosivo nucleare regolato 
in modo da esplodere vicino alla superfi- 
cie sopra ognuno dei 150 o 200 silos co- 
razzati degli ICBM della base. 

La ricaduta radioattiva nasce con le 
migliaia di tonnellate di terra, rocce e 
altri materiali che vengono fusi o vapo- 
rizzati dal calore di ogni esplosione e 
mescolati con i suoi sottoprodotti, radio- 
attivi. Questi detriti verrebbero portati a 
un'altezza di circa 13 chilometri dalla 
sfera di fuoco in ascesa. Nella stratosfera 
la sfera di fuoco si raffredderebbe e le 
particelle più grosse ricadrebbero a terra 
più o meno nell'arco di ventiquattr'ore e 
si depositerebbero, come ricaduta locale, 
su un'area estendentesi per alcune centi- 
naia di chilometri sottovento. Le parti- 
celle più piccole, portate dal vento, per- 
correrebbero grandi distanze e alla fine 
scenderebbero a terra come ricaduta glo- 
bale. 

I rischi della ricaduta radioattiva loca- 
le furono messi in evidenza in forma 
drammatica dagli avvenimenti che segui- 
rono il primp esperimento americano di 
una bomba a fissione- fu sione-fi ss ione 
(con una potenza di 1 5 megaton), lancia- 
ta sull'atollo di Bikini 1*1 marzo 1954 {si 
veda la figura dì pagina 14). Dei pe- 
scatori che si trovavano a 1 30 chilometri 



DEUTERIO 



TRIZIO 




I prodotti di fissione, fonie delle radiazioni della ricaduta radioattiva, si formano nella catena di 
avvenimenti che seguono un'esplosione nucleare, in questo caso una tipica esplosione per 
fissionc-fusìone-Hssione. Riscaldali da un'esplosiune iniziale per fissione, gli isotopi dell'idroge- 
no, deuterio e trizio, si fondono in modo da formare l'elio, liberando un neutrone carico di 
energia (freccia in colore}. 11 neutrone penetra nel nucleo di un atomo di uranio Z38, rendendolo 
instabile; esso sì scinde, liberando quattro neutroni e due nuclei radioattivi di filiazione, o 
prodotti di fissione. I prodotti di fissione emettono dei raggi beta, o elettroni (freccia 
tratteggiata), e dei raggi gamma (frecce ondulate), decadendo così in modo da formare nuovi 
prodotti. Ogni catena dì decadimento termina alla fine in un isotopo slabile. Per ogni passaggio 
c'è un tempo di dimezzamento peculiare, che tende a diventare più lungo via vìa che ci si 
avvicina alla fase di stabilità. Altre catene di decadimento, che non compaiono nella figura, pro- 
ducono gli importanti radioisotopi a lungo periodo di dimezzamento, stronzio 9© e cesio 137. 



10 



11 




sottovento furono colpiti dalle radiazioni 
in misura tale che alla fine uno di essi 
ne morì. All'estremità meridionale del- 
l'atollo di Rongelap, a 160 chilometri di 
distanza sottovento, delle persone subiro- 
no gravi danni a breve e a lunga scaden- 
za, a causa delle radiazioni. Se si fossero 
trovate a vivere all'estremila settentrio- 
nale dell'atollo, dove le radiazioni ave- 
vano raggiunto livelli più elevati, quasi 
certamente sarebbero morte. 

Se gli abitanti della zona colpita dalla 
ricaduta radioattiva non ingerissero (co- 
me fecero i residenti di Rongelap) viveri 
e acque contaminati, il rìschio principale 
sarebbe costituito dalle radiazioni ester- 




ne emesse daile particelle radioattive, (La 
maggior parte delle particelle, della rica- 
duta locale sarebbero troppo grandi per 
entrare nei polmoni con l'aria inspirata.) 
Se la gente non stesse all'aperto e non 
venisse a contatto diretto con il fallout, 
subendo in tal modo delle ustioni provo- 
cate dalle particelle beta emesse dai nu- 
clei radioattivi, il rischio maggiore sareb- 
be quello delle radiazioni gamma, più 
penetranti. 

Per determinare la distribuzione e le 
conseguenze della ricaduta radioatti- 
va locale, è necessario conoscere la po- 
tenza di ogni testata e la quota a cui essa 
è esplosa, gli effetti biologici di date dosi 
di radiazioni assorbite, il grado di di- 
pendenza dalle condizioni atmosferiche 
del campo d'azione della ricaduta ra- 
dioattiva, la misura in cut la popolazione 
è protetta dai rifugi, la distribuzione geo- 
grafica dell'attacco e la sua potenza to- 
tale in megaton. Le previsioni relative al 
numero dei morti e dei feriti sono sensi- 
bili alle premesse che ognuno fa a pro- 
posito di ciascuno di questi fattori che 
ora esamineremo. 

La radioattività del fallout verrebbe 
per la maggior parte dalla fissione. Una 
bomba «termonucleare» è tipicamente 
un congegno a fissione-fusione- fissione. 
Un «piccolo» esplosivo a fissione (uno 



INDIANA 

INDIANAPOLIS 



CINCINNATI 




EVANSVILLE 



KENTUCKY 



degli isotopi 235 dell'uranio o 239 del 
plutonio che sostengono la reazione a 
catena) provoca un'esplosione per fusio- 
ne che coinvolge, per esempio, gli isotopi 
dell'idrogeno, deuterio e trizio. I neutro- 
ni di alta energia emessi dalle reazioni di 
fusione fissionano poi i nuclei di una 
grande quantità degli isotopi 238 dell'u- 
ranio che non partecipano alla reazione 
a catena, liberando una maggiore quan- 
tità di energia di fissione (sì veda la figu- 
ra di pagina 1 /). Nei calcoli del Diparti- 
mento della difesa si ipotizzava che il 50 
per cento della liberazione di energia fos- 
se dovuto alla fissione: una percentuale 
rappresentativa. 

Le conseguenze biologiche delle radia- 
zioni gamma dipendono dalla dose totale 
assorbita e dal periodo di tempo in cui 
essa viene ricevuta. Secondo gli analisti 
del Dipartimento della difesa, la dose 
letale media di radiazioni è di 450 rem 
per dosi ricevute nello spazio di alcuni 
giorni. (Il rem, forma abbreviata di roent- 
gen equivalent man, è un'unità di mi- 
sura dell'effetto biologico delle radia- 
zioni.) Per dosi ricevute in un arco di 
tempo più lungo la dose letale era fissata 
a livelli un po' più alti, perché, dandogli 
tempo, un sistema biologico può porre 
riparo a una notevole quantità di danni 
causati dalle radiazioni. La dose effetti- 
va ricevuta dalla popolazione esposta, 
quando il ritmo di riparazione è appena 
sufficiente a controbilanciare i danni cau- 
sati dal campo ambientale di decadimen- 
to delle radiazioni, sarebbe la «dose bio- 
logica massima» e determinerebbe il ca- 
rattere letale dell'esposizione. 

La morte per malattia da radioattività 
non sarebbe né rapida né indolore. Co- 
me si legge nel libro di Glasstone, «i 
sìntomi iniziali sono... nausea, vomito 
diarrea, perdila dell'appetito e un males- 
sere generale». A incominciare da due o 
tre settimane dopo l'esposizione, «c'è la 
tendenza a perdile di sangue in vari or- 
gani, e si osservano piccole emorragie 
sotto la pelle». Comuni sono anche le 
perdite spontanee di sangue dalla bocca 



e dall'apparato intestinale. «Anche la 
perdita dei capelli... incomincia dopo un 
paio di settimane... Un'ulcerazione in- 
torno alle labbra può... diffondersi dalla 
bocca a tutto l'apparato gastrointestina- 
le.» Alla fine «la diminuzione dei globuli 
bianchi e la lesione di altri meccanismi di 
difesa dell'organismo... fanno insorgere 
un'infezione gravissima». Non c'è che 
da moltiplicare tutto questo per milioni 
di persone per avere un quadro parziale 
delle possibili conseguenze di attacchi 
nucleari «limitati» agli USA e all'URSS. 

C e i nuovi prodotti di fissione dì un 
" megaton di fissione si diffondono 
uniformemente su una superficie perfet- 
tamente pianeggiante di circa 2500 chilo- 
metri quadrati, la dose di raggi gamma 
che viene assorbita a un metro al di 
sopra del suolo è di circa 250 rem l'ora 
dopo 10 ore. Per gli esseri umani la dose 
letale media per un tasso di radiazione 
così alto è di circa 450 rem. Il tasso dì 
radiazione gamma diminuirebbe di circa 
sedici volte per ogni aumento di dieci 
volte dell'unità di tempo per i primi sei 
mesi dopo l'esplosione e più rapidamente 
in seguito. Nel nostro esempio l'intensità 
delle radiazioni calerebbe a circa 15 rem 
l'ora dopo quattro giorni e a circa un 
rem l'ora dopo 40 giorni. Per una perso- 
na che rimanesse nella zona radioattiva, 
la dose cumulativa continuerebbe però a 
crescere in misura notevole per un perio- 
do di tempo lunghissimo. Si tenga pre- 
sente che la ricaduta radioattiva locale 
incomincia una decina di ore dopo l'e- 
splosione, che è un tempo tipico perché 
il fallout giunga a livello del suolo. Un 
buon 40 per cento della dose che si accu- 
mula dopo quel tempo rimarrebbe da 
ricevere dopo quattro giorni, e un altro 
25 per cento rimarrebbe ancora da rice- 
vere dopo 40 giorni . 

L'altezza dell'esplosione delle testate, 
che ha un'influenza importante sull'enti- 
tà della ricaduta radioattiva depositata 
sottovento, dipenderebbe dal bersaglio 
prescelto. Negli attacchi contro la forza 



missilistica postulati dal Dipartimento 
della difesa, la maggior parte dei megaton 
sarebbe diretta contro i silos corazzati dei 
missili Minuteman. Secondo il Diparti- 
mento, l'efficacia delle esplosioni in su- 
perficie e dì quelle all' «altezza ottima di 
scoppio» sarebbe, dal punto di vista del- 
la distruzione dei Minuteman, quasi u- 
guale. L'attaccante si troverebbe quindi 
di fronte a un bivio. Da una parte, un'e- 
splosione in superficie non ha bisogno di 
essere ubicata con la stessa precisione dì 
un'esplosione in quota (e questo è im- 
portante, dal momento che gli attacchi a 
obiettivi corazzati pongono un'alta prio- 
rità alla precisione). Dall'altra, i calcoli 
del Dipartimento della difesa rivelano 
che, a parità di tutto il resto, in caso di 
attacco agli ICBM americani le vittime 
della ricaduta radioattiva sarebbero quat- 
tro volte più elevate per le esplosioni in 
superficie che per quelle in quota. 

La sfera di fuoco di un'esplosione nu- 
cleare di un megaton e ì prodotti di fis- 
sione che essa contiene salgono rapida- 
mente, finché la sommità della nube della 
sfera di fuoco, che si va via via raffred- 
dando, entra nella stratosfera, circa 10 
chilometri sopra il livello del mare a 
latitudini medie. Alia quota di circa 13 
chilometri la nube si stabilizza, e i suoi 
prodotti di fissione si diffondono su una 
area del diametro di circa 6 chilometri. 
Per la ricaduta radioattiva locale di una 
esplosione di un megaton, un tempo me- 
dio di stabilizzazione potrebbe essere di 
circa otto ore. 11 tempo di stabilizzazione 
e la velocità media dei venti che spirano 
fra la sommità della nube delia sfera di 
fuoco e il livello de! suolo determinano 
la distanza alla quale le particelle veggo- 
no portate alla deriva dal vento. Per una 
tipica velocità media del vento di 30 
chilometri all'ora, la distanza media del- 
ta deriva sarebbe di 250 chilometri. (Il 
tempo dì stabilizzazione determina anche 
ia misura in cui gli isotopi radioattivi a 
vita breve decadono in maniera innocua 
prima di raggiungere la superficie.) La 
larghezza del campo della ricaduta ra- 




DISTANZA SOTTOVENTO (CHILOMETRI) 



1600 1660 1760 1840 

DISTANZA SOTTOVÈNTO (CHILOMETRI! 



2240 



I 'illusi razioni- mostra vari possibili campi di ricaduta radioattiva 
relativi ad attacchi compiuti per mezzo di testale nucleari di un 
megaton (nell'ipotesi che il 50 per cento del loro rendimento esplosivo 
sia derivalo dalla fissione) esplose al suolo sugli ICBM della White- 
man Air Force Base del Missouri, l.e linee di contorno corrispondono 



alle massime dosi biologiche di 1350 rem all'aperto o 450 rem (50 per 
cento di vìttime) all'interno di una casa d'abitazione media (linea 
continua); 450 rem all'aperto (linea spezzata) e 150 rem all'aperto 
• linea tratteggiata) indicano la soglia approssimativa a cui incomincia- 
no a cadere le prime vittime. I quattro campi di ricaduta si riferiscono 



rispettivamente a una sola testata nucleare ili, a una testata su 
ognuno dei dieci silos di un'unità tattica {cerchio grigia) di Min me- 
ntati (2) e a due testate su ognuno dei 150 silos di 15 unità tattiche di 
Minuteman (i e 4). La grande differenza che è possibile osservare fra i 
due ultimi campi d'azione è dovuta al mutamento presunto della 



velocità del vento. In tutti i quattro casi si parte dal presupposto 
che il vento spiri verso est. Nei primi Ire esempi si suppone che il 
vento abbia una velocità costante di 30 chilometri orari. Nell'ultimo, 
invece, si suppone che la velocità del verno sia di 100 chilometri orari 
(una media calcolata a quote comprese tra la superficie e la stratosfera). 



12 



13 



TEMPO DI ARRIVO DELLA RICADUTA RADIOATTIVA (OHE DOPO L'ESPLOSIONE) 
6 7 8 9 10 11 12 13 14 15 

H 1 1 f 1 1 f 1 1 H 



16 1,7 



te 

t- 



19 SO 
-I— I 



8IKAR 



PUNTO ZERO 



•:' 




RONGERIK 



a 1 



UTtRIK 



AILINGINAE 



RONGELAP 



TAKA 



32 



64 



-I- 
96 



— I- 
128 



H- ( 1 1 1 1 1— 

160 192 224 256 288 320 352 

DISTANZA DAL PUNTO ZERO (CHILOMETRI) 



-I 



384 



416 



448 



480 



512 



544 



I rìschi della ricaduta radioattiva locate sottovento di un'esplosione 
termonucleare furono drammatizzali dall'esperimento compiuto con 

una bomba a fissione- fusione-Fissione di 15 megaton lanciata sull'a- 



tollo di Bikini l'I marzo 1954. Le misurazioni (numeri in nero) danno 
la dose totale, in rem, che si era accumulata 96 ore dopo l'esplosione. 
Le linee di contorno, delimitano il campo della ricaduta radioattiva. 



dioattiva è determinata soprattutto dalla 
differenza di velocità e di direzione dei 
venti ai quali le particelle si trovano e- 
sposee all'interno della nube. Per un tipi- 
co gradiente trasversale della velocità del 
vento di 1,6 chilometri l'ora per 1,6 chi- 
lometri di altezza e una velocità media 
de! vento di 32 chilometri orari, il campo 
della ricaduta radioattiva a 160 chilome- 
tri sottovento da! punto zero avrebbe 
una larghezza di 40 chilometri. 

É evidente che il numero delle vittime 
dipende in misura notevole dalle condi- 
zioni atmosferiche previste. Nei calcoli 
del Dipartimento della difesa, il numero 
totale delle vittime di un attacco postu- 
lato era quattro volte più aito con lo 
spirare dei venti tipici di marzo di quan- 
to Io fòsse con lo spirare dei venti tipici 
di giugno. Queste variazioni sono dovute 
in gran parte ai mutamenti di direzione e 
di velocità del vento, da cui dipende se 
una zona densamente popolata viene co- 
perta o meno da! campo della ricaduta 
radioattiva. Si consideri il campo d'azio- 
ne di un fallout in favore di vento che 
parta dai silos dei Minuteman della Whi- 
teman Air Force Base, che si trova nel 
Missouri centrale, dopo un attacco russo 
costituito da due esplosioni di un me- 
gaton in superficie (col 50 per cento del 
rendimento derivato dalla fissione) su 
ognuno dei 150 silos della base. Con una 
velocità media del vento di 30 chilometri 
orari, la zona letale della ricaduta radio- 
attiva per le persone chiuse in casa si 
estenderebbe fino al confine tra l' Illinois 
e l'Indiana; se invece la velocità media 
del vento fosse di 90 chilometri orari 
(una velocità che non è inconsueta nella 
parte superiore della troposfera, dove la 
ricaduta radioattiva rimarrebbe per ìa 
maggior parte del tempo prima di posar- 
si a terra), la zona letale si prolunghereb- 
be fino ai confini della Virginia (sì veda 
la figura delle due pagine precedenti). La 
superficie colpita sarebbe molto grande, 



in quanto è pari a circa il 2 per cento del 
territorio continentale degli Stati Uniti. 

Le basi di Minuteman dalle quali po- 
trebbero estendersi dei campi comparati- 
vamente massicci di radiazioni letali so- 
no sei, a cui bisogna aggiungere tre basi 
con 18 missili Titan. Ciò significa che, in 
caso di un attacco diretto contro i mis- 
sili americani, una parte notevole degli 
USA sarebbe coperta dal campi di ri- 
caduta delle migtiaia di esplosioni nu- 
cleari. E una percentuale molto alta della 
popolazione, compresi gli abitanti di 
molte delle più importanti città del Mid- 
dle West, verrebbe a trovarsi nelle zone 
delle radiazioni letali (si veda la figura 
nella pagina a fronte). Presumibilmente 
una mappa dell'URSS mostrerebbe una 
situazione analoga per un attacco coun- 
ter force americano" 

O er chi viene a trovarsi nel campo di 
*• ricaduta radioattiva sotto vento pro- 
dotto da un'esplosione per fissione in su- 
perfìcie o a bassa quota, le conseguenze 
dipenderebbero naturalmente non solo 
dal livello di contaminazione del suolo, 
ma anche dai posto in cui uno ha trovato 
rifugio. Attualmente il programma dì di- 
fesa civile americano richiede che, per 
essere considerato come tale, un rifugio 
atomico deve proteggere da tutte le ra- 
diazioni gamma della ricaduta radioatti- 
va a eccezione deil'l o 2 per cento. Il 
grado di protezione offerto da un rifugio 
è caratterizzato dal «fattore di prote- 
zione», che è il recìproco della frazione 
di radiazione che riesce a penetrarvi. Il 
requisito attuale è quindi un fattore di 
protezione che oscilla tra 50 e 100. Que- 
sto grado di protezione può essere for- 
nito da una copertura di circa 60 cen- 
timetri di terriccio o da circa 40 cen- 
timetri di cemento armato. Il fattore di 
protezione delle parti di una casa a un 
solo piano che si trovano sopra il livello 
del suolo è pari a 3. Il seminterrato di 



quella stessa casa può avere un fattore 
variabile da 20 a 40 se è completamente 
sotto il livello del suolo e riceve pertanto 
le radiazioni gamma quasi interamente 
dalla ricaduta radioattiva che si posa sul 
tetto dell'edificio. 

Nei calcoli del Dipartimento della di- 
fesa la distribuzione postulata dei fat- 
tori di protezione corrisponde alla pre- 
messa che circa il 60 per cento della 
popolazione americana cerchi e raggiun- 
ga il miglior rifugio disponibile nella zo- 
na {si veda la figura a pagina 16 in alto). 
Al rimanente 40 per cento che non cer- 
casse un rifugio o per cui non vi fossero 
rifugi disponibili viene assegnato un fat- 
tore pari a 3, quello di una costruzione 
residenziale media. Si è trovato che, ri- 
ducendo della metà i fattori di protezio- 
ne, il numero dei morti aumentava di 
oltre il 50 per cento. 

È importante notare che gli analisti del 
Dipartimento della difesa partono dal 
presupposto che la gente rimanga in ri- 
fugio per 30 giorni. Al livello attuale di 
preparazione della difesa civile, è estre- 
mamente improbabile che la popolazione 
possa rimanere così ben protetta per un 
periodo dì tempo tanto lungo. Perché 
una guerra nucleare limitata abbia una 
sua credibilità come possibile politica al- 
ternativa, come minaccia realistica in uno 
scontro con l'URSS, sarebbe necessario 
curare in modo molto migliore t sistemi 
di protezione. In altre parole, gli USA 
dovrebbero intraprendere un programma 
di difesa civile molto esteso. 

In effetti, durante l'annuale discussio- 
ne del bilancio preventivo della difesa è 
stato proposto di recente il potenziamen- 
to delle procedure di difesa civile, che, 
come logico corollario della nuova stra- 
tegia, impongono l'evacuazione e il tra- 
sferimento in massa della popolazione. I 
preparativi necessari per tali movimenti 
di massa e per il sostentamento della po- 
polazione per lunghi periodi di tempo 



inciderebbero in maniera notevole sulla 
società americana in tempo di pace. Il 
reperimento di spazi adatti per i rifugi e i 
piani dì evacuazione di per sé non sareb- 
bero un efficace programma di difesa 
civile; bisognerebbe organizzare un siste- 
ma che si inserisca nel tessuto della vita 
civile con programmi dì addestramento, 
prove generali e attività volontarie. 

Oer avere un'idea dell'ordine di gran- 
* dezza di un programma di difesa 
civile in grado dì offrire rifugio e mante- 
nimento a un numero elevato di persone 
per parecchie settimane o per periodi di 
tempo ancora più lunghi, basta dare una 
occhiata al sistema previsto dalla guida 
americana di difesa civile del 196L I 
piani, che non sono mai stati attuati, 
prevedevano che, per ogni rifugio capace 
di accogliere 100 civili, ci sarebbero vo- 
luti dei quadri operativi di 25 elementi, 
di cui 10 o 12 avrebbero avuto bisogno 
di un addestramento speciale. Ciò signi- 
fica dover addestrare il 10 per cento 
della popolazione che trova posto in un 
rifugio, ovvero il 20 per cento della po- 
polazione adulta. Per reclutare un così 
gran numero di quadri, il governo do- 
vrebbe allargare le ricerche al di là del 
personale che attualmente provvede alla 
sicurezza della comunità. 

È opportuno notare che i calcoli del 
Dipartimento della difesa sulle conse- 



guenze di una guerra nucleare limitata 
costituiscono quasi certamente delle sti- 
me molto inadeguate. Essi per esempio 
non tengono nessun conto di quella che 
potrebbe essere forse una delle conse- 
guenze più gravi di tutte: lo sfacelo di 
tutte le componenti strettamente interdi- 
pendenti che fanno funzionare una so- 
cietà moderna. Le difficoltà imposte a 
una società che cerca di riprendersi con 
livelli di mortalità e di morbilità senza 
nessun precedente, con cure mediche in- 
sufficienti e con un'estrema disorganiz- 
zazione in fatto di approvvigionamento 
di viveri e di acqua, sono semptkemente 
ignorate. I calcoli inoltre non prendono 
in nessuna considerazione certe conse- 
guenze a lunga scadenza, quali i milioni 
di effetti genetici e di casi di cancro che 
si presenterebbero in tutto il mondo nei 
decenni successivi all'attacco nucleare 
postulato. 

Se gli USA intendono davvero creare 
un sistema attuabile di evacuazione e 
protezione di massa, è necessario un gra- 
do maggiore di consapevolezza e di inte- 
resse da parte della popolazione, la quale 
inoltre dovrebbe essere disposta a parte- 
cipare a ripetute esercitazioni di difesa 
civile. In mancanza di una preparazione 
continua, al momento di un attacco si 
verificherebbero scene di grande confu- 
sione e di panico. È difficile vedere come 
si possa ottenere un impegno per l'attua- 



zione di tali piani senza un intenso lavo- 
ro, prolungato e deliberato, di informa- 
zione della popolazione in merito a una 
guerra nucleare. Uno degli insegnamenti 
del programma relativamente inefficace 
di difesa civile del 1961 e del 1962 è stato 
che le grandi spese per la difesa civile e i 
disagi di un esteso programma di prote- 
zione si potrebbero rendere plausibili al 
pubblico americano solo ingigantendo la 
probabilità di una guerra nucleare. 

Oggi sì sente di nuovo affermare che 
l'URSS sta sviluppando e sperimentando 
dei piani di difesa civile che comprendo- 
no l'evacuazione e il trasferimento dì un 
numero elevato di persone, nonché la 
dispersione degli impiantì industriali e la 
loro protezione per mezzo di una co- 
pertura pesante, simile a quella dei silos 
missilistici corazzati. Questi programmi 
vengono citati sia per indicare che forse 
gli Stati Uniti stanno perdendo il proprio 
potere deterrente, sia per spronare gli 
americani a rinnovare ì loro sforzi in 
direzione della difesa civile. Quali prove 
vi sono a sostegno di queste afferma- 
zioni? 

I russi hanno scritto molto sull'argo- 
mento e hanno messo la gente a contatto 
con la difesa civile più di quanto abbia- 
no fatto gli americani. A quanto pare i 
russi hanno speso motto più degli ameri- 
cani in fatto di piani e di organizzazioni, 
e hanno coinvolto nelle esercitazioni un 




Un attacco contro tulle le basi ICBM Titan (quadratini bianchi) 
e Minuteman (quadratini in colore), con due esplosioni di un me- 
gaton (nell'ipotesi che il 50 per cento del loro rendimento esplosivo 
sia derivalo dalla fissione) in superficie potrebbe produrre questi 



campi di ricaduta. Ogni contomo interno delimila una dose di 450 
rem al chiuso (50 per cent» di vittime), e »«ni contorno esterno una 
dose di 200 rem all'aperto (50 per cento di ricoverati in ospedale). Si 
sono prese in considerazione le velocità del vento tipiche di marzo. 



14 



15 




FATTORE DI PROTEZIONE 

I :i situazione rifugi assunta nei calcoli del Dipartimento della difesa è mostrala nelle colonne, 
che indicano la percentuale di civili riparati in rifugi con un certo fai io re protellivo (il reciproco 
della Frazione di radiazioni che penetra nel rifugio). [I pianterreno di una casa a un piano ha un 
fattore di protezione di circa 3; il seminterrato, se ta casa è in legno. Ira 15 e 20; se è di mattoni e ha 
due piani, circa 50; una trincea coperta da 60 centimetri di terra ha un fattore pari a circa 100. 



20 



15 



5 



10 




.Stima approssimativa delle vittime di cinque attacchi counterfarce russi ipotizzati: una sola 
esplosione in quota di un megaton su ogni silo americano di ICBM (.4); lo slesso attacco con 
esplosione a livello del suolo (fi); due testate di 550 chiloton per ogni silo, una da esplodere in quota 
e l'altra a livello del suolo (O; due testate di Ire megaton per ogni silo, una da esplodere in quota e 
l'altra a livello del suolo i/)i: un attacco «organico», con due esplosioni da un megaton a livello 
del suolo per ogni silo e una in quota su tutte le 46 hasi dello Strategie Air Command e sulle due basi di 
sommergibili lanciamissili balistici (fi}. Negli ultimi Ire casi il livello di protezione presentato nella 
figura in questa pagina in allo è «degradalo» del 25 percento e, invece dei venti d'agosto, si prendo- 
no come presupposto i venti di marzo. Sempre negli ultimi tre casi, il Dipartimento della difesa ha 
fatto un calcolo approssimativo dell'efficacia dell'attacco: distrutto il 42 per cento degli ICBM 
(O; distrutto l'80 per cento tf)); distrutto il 57 per cento degli ICBM oltre a gravi danni inflitti 
agli aeroplani a terra o in volo nel raggio di 13 chilometri dalla base e ai sommergibili in porto (£)- 



16 



piccolo numero dì individui con una par- 
ticolare competenza in materia. Date pe- 
rò le dimensioni senza precedenti del di- 
sastro nazionale che viene preso in consi- 
derazione, un programma di difesa civile 
efficace dovrebbe includere certamente, 
fra le proprie componenti essenziali, e- 
sercitazioni e prove di sopravvivenza su 
larga scala, in cui venga coinvolta tutta 
la popolazione. Se ci fossero stati esperi- 
menti di questo genere, ne avremmo cer- 
to avuto notizia. Essi sarebbero molto 
difficili da nascondere, e molti di quanti 
vi avessero preso parte o ne avessero 
avuto conoscenza ormai avrebbero la- 
sciato l'URSS e avrebbero attirato l'at- 
tenzione su di essi. Finora però non sì ha 
nessuna prova che si siano mai effettuate 
esercitazioni di questo genere. La perso- 
na che per conto del governo americano 
ha curato la traduzione del manuale rus- 
so di difesa civile del 1974 ha detto che 
I '«Unione Sovietica non ha condotto e- 
s perimenti di massa sulla vita in rifugi 
atomici e nemmeno esperimenti simulati, 
cosi come è stato fatto negli USA». Pia- 
ni e manuali sono una cosa molto diver- 
sa da un sistema operativo valido. 

T a risposta dei Dipartimento della dife- 
" sa del luglio 1975 conteneva nuove 
cifre sul numero delle vittime e dava 
anche delle valutazioni sull'efficacia mi- 
litare degli attacchi postulati. Secondo i 
nuovi calcoli, un attacco con due testate 
di 550 chiloton, una destinata a esplode- 
re in superficie e l'altra in quota, contro 
ognuno dei 1054 silos degli ICBM ameri- 
cani provocherebbe 5,6 milioni di vittime 
{partendo dal presupposto di una ridu- 
zione del 25 per cento del fattore di 
protezione della popolazione citato in 
precedenza) e distruggerebbe soltanto il 
42 per cento dei silos. Un attacco più 
pesante, con due testate da tre megaton, 
una destinata a esplodere in superficie e 
l'altra in quota, dirette contro ogni sin- 
golo silo, provocherebbe 18,3 milioni di 
vittime e distruggerebbe l'8Q per cento 
dei silos. Un attacco «organico» con due 
testate da un megaton, destinate entram- 
be a esplodere in superficie, contro ogni 
silo degli ICBM, e con attacchi collatera- 
li contro le 46 basi dello Strategie Air 
Command (SAC) e le due basi di som- 
mergibili lanciamissili balìstici, provoche- 
rebbe 16,3 milioni di vittime e distrugge- 
rebbe il 57 per cento degli ICBM, il 60 
per cento dei bombardieri sorpresi a ter- 
ra e il 90 per cento dei sommergibili 
fermi in porto (si veda la' figura in basso 
in questa pagina). 

L'efficacia di tutti questi attacchi sa- 
rebbe leggermente maggiore se sì partisse 
dal presupposto che i missili in arrivo 
fossero più precisi, e sarebbe leggermen- 
te minore se si presumesse che la forza 
attaccante avesse un grado di precisione 
inferiore al 100 per cento. Inoltre occor- 
re tenere conto del fatto che un attacco 
massiccio, in cui siano coinvolte molte 
testate nucleari che arrivano più o meno 
nello stesso momento nella medesima a- 
rea, è «fratricida» fra i missili in arrivo. 
In un attacco concentrato, i disturbi at- 



mosferici creati dalle prime testate in ar- 
rivo sono destinati inevitabilmente a di- 
struggere, rendere innocue o deviare mol- 
te delle testate che arrivano in seguito. 
Solo la sincronizzazione quasi perfetta 
dell'arrivo delle testate dirette contro lo 
stesso silo o contro i silos più vicini può 
evitare questo effetto. 

In ogni caso è chiaro che, con un 
attacco massiccio, tale da produrre un'e- 
norme devastazione, compresa la morte 
di 20 milioni di americani, l'URSS a- 
vrebbe compiuto ben poco di valore mi- 
litare strategico. Dopo il più pesante de- 
gli attacchi contro gli ICBM postulati 
dal Dipartimento della difesa, infatti, ri- 
marrebbero intatti più di 200 ICBM, una 
forza di rappresaglia schiacciante, anche 
senza contare i bombardieri SAC, i som- 
mergibili lanciamissili e le migliaia di 
armi nucleari pronte a entrare in azione 
oltremare e sulle portaerei. È quindi per 
lo meno fuorviarne ipotizzare che un 
attacco counter/orce riuscito strategica- 
mente efficace possa compiersi con un 
numero ridotto di vittime civili. 

Un grosso pericolo associato a una nuo- 
va politica che dia particolare rilievo 
ai preparativi per combattere effettiva- 
mente una guerra limitata counterforce è 
che essa tenderebbe a minare la stabilità 
dell'equilibrio strategico. Altro è la fles- 
sibilità, altro è un'efficiente capacità di 
distruggere degli obiettivi corazzati. La 
flessibilità è inerente all'ampia gamma di 
armi strategiche americane, pronte a es- 
sere lanciate su obiettivi urbani, indu- 
striali <} militari. Queste armi potrebbero 
essere lanciate selettivamente in numero 
di uno o cento. Inoltre ogni missile o 
bombardiere ha la possibilità di scegliere 
fra molti bersagli. Il nuovo sistema Com- 
mand Data Buffer, ormai quasi comple- 
tamente a punto, permette di modificare 
a distanza, dai centri di controllo e di 
lancio, nello spazio di 36 minuti, gli 
obiettivi dei missili Minuteman III, ser- 
vendosi di elaboratori elettronici instal- 
lati nei missili stessi. 

Grazie a tutta questa flessibilità, gli 
USA dispongono già anche di una note- 
vole capacita counterforce pur senza te- 
state estremamente precise. Vi sono, per 
esempio, obiettivi militari non corazza- 
ti (ossia «morbidi»), come j campi d'a- 
viazione e le basi di sommergibili, i quali 
potrebbero essere selettivamente distrutti 
con poche testate nucleari. Anche i silos 
corazzati potrebbero venire distrutti col- 
pendo ognuno di essi con un certo nu- 
mero di missili Minuteman. Ciò nono- 
stante, il Dipartimento della difesa vuole 
ancora, di più: vuofe la capacità di sfer- 
rare attacchi counterforce con efficacia e 
con un alto grado di sicurezza contro 
silos corazzati di ICBM russi. Come ha 
detto Schlesinger nella sua richiesta di 
stanziamenti del 1976: «Credo che da 
parte nostra si dovrebbe migliorare la 
capacità di distruggere obiettivi corazza- 
ti, in modo da essere più sicuri di poter 
eseguire degli attacchi limitati a bersagli 
di questo tipo». In effetti gli USA stan- 
no procedendo attualmente in questa di- 



ZOLLE ERBOSE 



i '.''.'• ','..' 



FASCINE 



, ..ill'V.! 1 , 1 '! i' 1 ',' ',.' ■'','/ 'i '.' . TERRA 



Se^Vli."" 1 AHGILLA 



-/.'■ '■>, f\ì * li,] 

X "Vii'" ' , ■ . -,>' 
X "Vi ''I 1 'dWll', 



COMPATTA 




. ZOLLE ERBOSE 



FASCINE 




Questi disegni di rifugi russi, tratti da un manuale russo del 1970, rivelano la tendenza verso 
strutture semplici, che la gente possa costruire «con le proprie mani e con materiali facilmente 
reperibili». Un ricovero scavato in un terreno compatto di argilla (in atto) ha come tetto delle 
fascine di ramaglia, canne o bambù, ed è ricoperto da uno strato di argilla compatta e da circa 
70-80 centimetri di terra. In un terreno più sciolto sono necessari degli anelli di fascine (in basso). 



17 



© 



30 CENTIMETRI DI TERRA SUL 
TETTO O SUL PAVIMENTO 



TERRA AMMASSATA CONTRO I MURI 
SCOPERTI DEL SEMINTERRATO 





VENTILAZIONE 



L T- 



__„J 



FINESTRA 



BARRIERA 01 LEGNO ALLA FINESTRA 



I 




Questo rifugio americano, ridisegnato da un'illustrazione pubblicata 
dalla Defense Civil Preparedness Agenc) . mostra la tendenza verso l'a- 
dozione di un «rifugio di ripiego», inleso innanzi lutto ad accogliere 
popolazioni evacuate. Per fornire un'adeguata prolezione dalla rica- 



duta radioattiva in un seminterrato che solo in parie si trova soldi il 
liscilo del suolo, è necessario accumulare uno stralo di trenta centime- 
tri di terra sul tetlo della casa o sul pavimento del piano superiore e 
ammassare della lerra a ridosso dei muri scoperti del seminterrato. 



rezione con programmi sovvenzionati. 

Questi sviluppi si scontrano diretta- 
mente con il bisogno di stabilità strate- 
gica. Una forza missilistica americana 
con missili a testate multiple indipenden- 
ti (M1RV) o con veicoli di rientro mano- 
vrabili (MARV) attualmente in fase di 
sviluppo, e con una provata combina- 
zione di massima affidabilità, guida pre- 
cisissima e testale nucleari di grande po- 
tenza, suggerirebbe ai leader russi la pos- 
sibilità di un altacco preventivo america- 
no contro i loro silos di ICBM. E sugge- 
rirebbe loro anche l'opportunità di non 
farsi sorprendere, al momento di uno 
scontro diretto, con i missili nei silos, ma 
di colpire invece per primi o di adottare 
la politica del «grilletto sensibile», di 
lanciare cioè le proprie armi al mìnimo 
allarme. Gli stessi argomenti valgono a 
ruoli invertiti fra russi e americani. [1 
dibattito nazionale attualmente in corso 
rivela, come è logico attendersi, l'esisten- 
za dì una preoccupazione diffusa sulla 
possibilità che l'URSS stia sviluppando 
una capacità dì sferrare attacchi counter- 
force contro obiettivi corazzati e la preoc- 
cupazione appare giustificata soprattutto 
se si tiene conto delle maggiori dimensio- 
ni degli ICBM russi. 

Certo è impossibile prevedere un pri- 
mo colpo che minacci davvero la capaci- 
tà di rappresaglia dell'URSS (p degli 
USA), non fosse altro perché i sommer- 
gìbili lanciamissili in mare e i bombar- 
dieri in cielo o in stato di preallarme a 
lerra non sono esposti alla distruzione in 
un attacco preventivo. Comunque sia, 
per mantenere un ambiente strategico sta- 
bile, come quello che esiste attualmente 
per le due superpotenze, non dovrebbe 
esserci la minima vulnerabilità, né effet- 
tiva né «intuita», di nessuna componente 
di rilievo delle forze deterrenti strategi- 
che di entrambe ie parti. (Dal punto di 
vista russo questo vale in particolar mo- 
do per ia componente costituita dagli 
ICBM con base a terra, dato che essa 
rappresenta una percentuale molto più 
grande del potere deterrente sovietico: 
grosso modo il 75 per cento rispetto al 
25 per cento degli USA.) La messa a 
punto di missili capaci di distruggere o- 
biettivi corazzati sarebbe quindi fonte di 
tensione, in quanto ognuna delle due 



parti temerebbe che un'evoluzione del 
genere porti con sé la possibilità di un'ef- 
fettiva minaccia di sferrare il primo col- 
po contro i propri ICBM sistemati nei 
silos. Il fatto che difficoltà tecniche e 
operative formidabili, come il problema 
del fattore «fratricida», induca molta 
gente a mettere in dubbio la possibilità 
di raggiungere una capacità dì questo 
genere non ha importanza: ci sarebbe 
sempre una grave preoccupazione in me- 
rito alla capacità degli ICBM con base a 
terra di uscire indenni da un primo at- 
tacco preventivo. 

1 funzionari americani riconoscono il 
pericolo che si corre dando l'impres- 
sione di minacciare la capacità russa di 
rappresaglia, e così, quando propongono 
di migliorare la capacità americana di 
distruggere bersagli «duri» aggiungono 
subito che, almeno per il momento, ver- 
rebbe limitata la messa a punto operati- 
va di nuove armi offensive. Ma è possi- 
bile creare una «controforza» di dimen- 
sioni ridotte per i bersagli «duri» senza 
produrre gli stessi effetti negativi che sì 
avrebbero se le dimensioni fossero più 
ampie? In fin dei conti il timore di una 
possibile minaccia futura di attacchi di 
ICBM russi contro i Mìnuteman america- 
ni è l'unico elemento che è stato addotto 
a sostegno dei programmi attualmente in 
corso per migliorare i missili americani. 
Si è affermato che gli americani dovreb- 
bero essere in grado di rispondere a tono 
a ogni possibile minaccia percepita. Schle- 
singer ha detto che non vi dovrebbero 
essere «asimmetrie nei livelli o nelle ca- 
pacità delle forze, sta convenzionali sia 
nucleari». 

Il pericolo insito in questa logica è che 
quasi inevitabilmente assisteremo al fatto 
che un programma di potenziamento a- 
mericano darà l'avvio a un impegno rus- 
so volto all'attuazione proprio di quel 
programma che gli americani temono (e 
viceversa, naturalmente). Tutti i prece- 
denti, compresa in particolare la storia 
della messa a punto dei M1RV da en- 
trambe le parti, stanno a indicare ebe, 
una volta sviluppata e sperimentala la 
tecnologia per sferrare attacchi contro 
bersagli «duri» la dinamica della corsa 
agli armamenti prenderebbe inevitabil- 



mente il sopravvento e renderebbe diffi- 
cile, per non dire impossibile, trattenere 
gli USA dal mettere a punto in maniera 
estensiva le nuove armi e l'URSS dal 
rispondere a tono. 

Nessuna delle due parti ha fin qui 
sviluppato delle armi intese specificata- 
mente a distruggere obiettivi duri, armi 
cioè che abbiano un'elevata probabilità 
di far saltare in aria, con una sola testata 
nucleare, un bersaglio militare corazza- 
to, come potrebbe essere un silo. Comun- 
que sia, il bilancio americano della dife- 
sa del 1976 prevede stanziamenti a favo- 
re di programmi di ricerca e di sviluppo 
diretti proprio in questa direzione. Pri- 
ma che entrambi i paesi si impegnino 
ulteriormente e forse irrevocabilmente 
nell'attuazione di programmi di sviluppo 
di tali armi, programmi destinali a sti- 
molarsi e rafforzarsi a vicenda, è neces- 
sario quindi rispondere ad alcuni inter- 
rogativi di cruciale importanza. Gli ame- 
ricani ne hanno davvero bisogno? Qual è 
il valore della possibilità di distruggere 
un silo corazzalo nemico (che potrebbe 
anche essere vuoto al momento in cui vi 
si faccia cadere sopra una testata nuclea- 
re) in risposta a un attacco sferrato con- 
tro un silo americano? Se una pic- 
cola risposta proprio si impone, non 
andrebbero bene come bersaglio una ba- 
se aerea o una base navale o un deposito 
militare? Non è sufficiente l'ampia fles- 
sibilità attuale degli Stati Uniti? Le armi 
capaci di distruggere obiettivi militari co- 
razzati daranno un contributo militare i- 
nequivocabile alla sicurezza nazionale, o 
la loro giustificazione si basa unicamente 
su fugaci ragioni di carattere politico- 
-strategico? 

Noi abbiamo sostenuto che tali armi 
renderebbero più difficile il problema di 
mantenere la stabilità strategica. Si di- 
rebbe quindi che sia utile per la sicurezza 
tanto degli USA quanto dell'URSS evi- 
tarne lo sviluppo e la messa a punto 
operativa. Un precedente significativo 
per frenare la creazione di nuove armi 
nell'interesse della stabilità è il trattato, 
negoziato nella prima fase dei colloqui 
sulla limitazione delle armi strategiche, 
che limita rigorosamente le opere di di- 
fesa anti missili balìstici. Ora gli USA 
e l'URSS hanno nuovamente un'occasio- 



ne di importanza cruciale per limitare la 
loro gara in fatto di armi tecnologiche 
tradizionali, frenando la sperimentazio- 
ne e la messa a punto operativa dì nuove 
armi intese a distruggere i silos corazzati 
degli ICBM. 

Net tre decenni seguiti alle esplosioni 
di Hiroshima e di Nagasaki sì sono 
avute molte crisi che hanno coinvolto le 
due superpotenze, e gli Stati Uniti hanno 
combattuto nel continente asiatico due 
guerre terrestri di un certo rilievo. Nono- 
stante questo la tregua nucleare ar- 
mata ha resistito. Perché nessuna delle 
due parti ha lanciato una sola delle mi- 
gliaia di testate nucleari di cui ciascuna 
disponeva? Certamente la cosa è dovuta 
al grande timore dei responsabili politici 
e dei cittadini di entrambe le parti che, 
una volta esplosa una bomba nuclea- 
re, un'altra ne esploderà in risposta, 
e si avrà un'escalation degli scambi, fin- 
ché entrambe le nazioni non saranno 
distrutte e centinaia di milioni di persone 
non saranno morte. Il problema creato 
dallo spostamento dell'accento sulla stra- 
tegia di attacchi counierforce selettivi, 
da sferrarsi contro bersagli «duri», il 
tutto accompagnato da sforzi intensi in 
materia di difesa civile, è se esista o 
meno una reale prospettiva di sfuggire a 
questo «equilibrio del terrore», È oppor- 
tuno, ci si chiede, abbandonare la pre- 
messa secondo la quale una guerra nu- 
cleare generale è impedita dalla cerlezza 
della distruzione reciproca, e tendere in- 
vece a raggiungere l'obiettivo di com- 
battere, vincere e «sopravvivere» a una 
guerra nucleare limitata, quando anche 
una guerra limitata provocherebbe molti 
milioni di vittime? 

Negli anni sessanta gli USA adottaro- 
no una politica strategica che dava la 
precedenza assoluta alla prevenzione del- 
la guerra nucleare per mezzo della dis- 
suasione, piuttosto che alla preparazione 
di una guerra nucleare nel caso in cui la 
dissuasione non avesse avuto successo. A 
partire da quel momento la tecnologia 
delle armi ha progredito, per cui è diven- 
tato possibile prendere in considerazione 
dei tipi nuovi e più raffinati di attacchi 
limitati contro la forza missilistica, com- 
presi quelli a obiettivi militari corazzati. 
La realtà politica della dissuasione rima- 
ne comunque immutata. Una nuova tec- 
nologia e una nuova strategia non ridu- 
cono in misura significativa il rischio di 
una guerra nucleare totale, una volta che 
sta stata lanciata da una delle parti fa 
prima bomba nucleare. 

E importante riconoscere che, una vol- 
ta aperto il fuoco delle armi nucleari, la 
decisione di mantenere la guerra entro 
certi limiti non dipende più da una sola 
delle due parti, ma è necessario che ven- 
ga presa da entrambi, o da tutti, i parte- 
cipanti al conflitto. Come il segretario di 
stato americano Henry A. Kissinger scris- 
se nel 1965: «Nessuno sa come i governi 
o la gente reagirebbero a un'esplosio- 
ne nucleare in circostanze in cui entram- 
be le parti dispongono di vasti ar- 
senali». 



ARMAMENTI 



Fin dai suoi primi numeri, LE SCIENZE, edizione italiana di 
SCIENTI FIC AMERICAN, ha dedicato al problema degli arma- 
menti importatiti articoli che hanno fatto il punto, anno per anno, 
sulla situazione strategica e militare del momento: 



LA DINAMICA DELLA CORSA 
AGLI ARMAMENTI 

di G.W. Rarhjens (n. IO) 

U decisioni degli USA e dell'URSS 
minacciano di distruggere la stabilità 
del presente equilibriti militare strate- 
gico- ciò può compromettere in modo 
gravissimo il già precario equilibrio in- 
ternazionale. 

TECNOLOGIA MILITARE E 
SICUREZZA NAZIONALE 

iii ll.F. York (n. 15) 

La polemica sugli ABM viene analiz- 
zata nel contesto dì una più vasta pro- 
blematica; l'inutilità della ricerca di so- 
luzioni tecnologiche per la soluzione di 
un problema che è essenzialmente po- 
litico. 



IL COSTO DEGLI 
ARMAMENTI NEL MONDO 

di A.S, Alexander (n. 17) 

Un'indagine svolta dalla US Arm Con- 
trol and Disarmameli Agency sui dati 
relativi a 120 paesi rivela un continuo 
aumento delle spese militari. Il tasso 
d'incremento è nettamente superiore a 
quello della popolazione e del prodotto 
nazionale lordo, 

LA LIMITAZIONE DELLE 
ARMI STRATEGICHE 

di G.W. Rathjens 

e G.B. Kistiakowsky (n. 19) 

Le prospettive a lunga scadenza dei col- 
loqui per la limitazione delle armi stra- 
tegiche migliorerebbero di molto se si 
giungesse sollecitamente a un accordo 
per la proibizione di ulteriori esperimen- 
ti sui MIRV. 



LA LIMITAZIONE DELLE 
ARMI OFFENSIVE 

di H. Scovine jr. (n. 32) 

// miglior risultato che ci si può atten- 
dere dai colloqui per la limitazione del- 
le armi strategiche (SALT) è il conge- 
lamento delle forze offensive esistenti. 



L'AMPLIAMENTO DEL BANDO 
AGLI ESPERIMENTI NUCLEARI 

di ll.R. Myers <n. 44} 

/ progressi delle tecniche di rilevazione 
sismica per distinguere tra esplosioni a- 
I amiche sotterranee e terremoti naturali 
rendono possibili i negoziati sull'amplia- 
mento del bando agli esperimenti. 

IL GRANDE DIBATTITO 
SUL BANDO DEGLI 

ESPERIMENTI NUCLEARI 
di H.F. York (b, 54) 

// corso degli eventi in fatto di armi 
tende a confutare le tesi sostenute una 
decina di anni fa contro la messa al 
bando limitata degli esperimenti nuclea- 
ri e a indicare che forse i tempi sono 
maturi per un bando completo. 



RICOGNIZIONE E CONTROLLO 
DEGLI ARMAMENTI 

di T. Greenwood (n. 57) 

I satelliti da ricognizione sono il prin- 
cipale strumento mediante il quale sia 
! il che URSS intendono verificare il 
vicendevole rispetto degli accordi SALT 
l. L'importanza di questo e di altri si- 
stemi ai fini dei SALT IL 

STRATEGIA E 
ARMI NUCLEARI 

di B.E. Carter (ri. 72) 

H potenziamento della « capacità di con- 
troforza » proposto dal governo ameri- 
cano è non solo inutile e costoso, ma 
può anche provocare una nuova corsa 
agli armamenti. 



IL CONTROLLO 
INTERNAZIONALE DEL 
DISARMO 

di A. Myrdal (n. 771 

La necessità di un ente autonomo delle 
Nazioni Unite che garantisca il rispetto 
degli accordi sul disarmo è maggiormen- 
te sentita nella attuale situazione di sta- 
si delle conversazioni « al vertice ». 



18 



19 



I processi ripetitivi 
nello sviluppo infantile 

Durante la crescita il bambino acquisisce talune capacità che poi perde 
e successivamente riacquista, in apparente contrasto con il concetto 
secondo cui lo sviluppo del comportamento è continuo e progressivo 



di T.G.R. Bower 



te.il concetto di conservazione del peso. 

Chiedendo allo stesso bambino, due 
anni dopo, che cosa avviene del peso di 
una palla di creta quando la si trasformi 
in una forma allungata, molto probabil- 
mente risponderà che quest'ultima è più 
pesante perché più lunga. Inoltre, se al 
bambino viene presentato lo stesso test 
comportamentale che gli era stato dato a 
dodici mesi, compirà l'errore che ha fat- 
to a quell'età, ma che non ha compiuto a 
18 mesi. Se il comportamento del bambi- 
no è considerato un indice di quanto 
conosce, sembra che abbia ancora una 
volta perduto il concetto di conservazio- 
ne del peso. 

Di norma, il bambino riacquista il 
concetto di conservazione del peso, di- 
mostrandolo dal punto di vista sia com- 
portamentale sia verbale, all'età di sette- 
-otto anni. L'acquisizione di tale concet- 
to tuttavia non è ancora stabilizzata in 
questa fase dello sviluppo. Lo stesso test 
presentato a un bambino di 11 o 12 anni 



provocherà la stessa risposta verbale er- 
rata data a quattro anni. Non si sa anco- 
ra, perché non sono state fatte ricerche 
in proposito, se anche il test comporta- 
mentale presenta la stessa regressione. 
Sembra però ragionevole supporlo poiché 
il comportamento segue di solito l'espres- 
sione verbale. È soltanto all'età di 13-14 
anni che il ragazzo giunge a un concetto 
stabile di conservazione del peso. 

Osservazioni come queste sembrano 
contraddire l'ipotesi che lo sviluppo psi- 
cologico costituisca un processo costan- 
temente progressivo, come quello fisico. 
Capacità di apprendimento sembrano 
comparire e scomparire lasciando il bam- 
bino in condizioni peggiori di quando 
aveva un'età minore o per lo meno in 
condizioni non migliori di quelle regi- 
strabili nello stato infantile. 

Sussistono dati, tuttavia, secondo cui 
le varie fasi dello sviluppo sono collegate 
tra loro. È stato dimostrato, per esem- 
pio, che se un bambino apprende molto 



precocemente a camminare, l'esperienza 
accelererà la successiva ricomparsa della 
deambulazione. Si è ipotizzato che l'ac- 
quisizione di taluni concetti durante l'in- 
fanzia sia indispensabile per la loro sta- 
bile manifestazione nei periodi successivi 
della vita e che il bambino che non acqui- 
sisce una normale struttura concettuale 
nell'infanzia può risultare poi permanen- 
temente incapace di svilupparla. Taluni 
dati sembrerebbero confermare questa i- 
potesi e pertanto lo studio dei processi 
ripetitivi nello sviluppo sembrerebbe ave- 
re un valore immediatamente pratico. Le 
osservazioni sperimentali, tuttavia, com- 
plicano la complessa impostazione teori- 
ca. Come si può infatti ammettere che 
qualcosa che scompare possa rappresen- 
tare un fattore discriminante per lo svi- 
luppo successivo? 

Per molti anni sono stato personalmen- 
te affascinato dai processi ripetitivi 
che si manifestano durante lo sviluppo. 



Per molti anni gli studiosi specializza- 
ti nel campo dello sviluppo infanti- 
le hanno svolto ricerche e formula- 
lo le relative ipotesi partendo da un pre- 
supposto fondamentale secondo cui il 
bambino, con il crescere dell'età e delle 
dimensioni fisiche, compie progressiva- 
mente meglio ogni tipo di compito per- 
cettivo, intellettivo e motorio che gli ven- 
ga presentato. Questo presupposto sta 
alla base di tutti i test d'intelligenza. Tali 
test vengono infatti elaborati in base alla 
convinzione che il bambino medio di 
nove anni sa fare tutto quello che com- 
pie uno di otto, più qualcos'altro, e che 
quest'ultimo è in grado di effettuare tut- 
to quanto sa fare uno di sette, più qual- 
cos'altro, e così via. 

Il concetto di sviluppo progressivo 
sembrerebbe del tutto ovvio. Infatti, con- 
siderando un bambino durante i vari sta- 
di di sviluppo se ne può constatare la 
crescita progressiva. Per quanto tale cre- 
scita non rappresenti un processo conti- 
nuo e regolare, non si è comunque mai 
visto un bambino alto un metro e venti 
un anno e un metro e sei centimetri 
l'anno successivo. Giacché non si è mai 
constatata una regressione di tale tipo 
nella crescita fisica, sarebbe abbastanza 
azzardato attendersela nello sviluppo 
comportamentale o intellettivo. Oppure 
questa correlazione potrebbe essere in- 
fondata? 

Parecchie indagini, divenute sempre più 
frequenti negli ultimi anni, sembrerebbe- 
ro dimostrare che lo sviluppo comporta- 
mentale e intellettivo può anche non es- 
sere strettamente cumulativo e progressi- 
vo. Tali ricerche tenderebbero a provare 
che il modello di sviluppo psicologico 
può differenziarsi in maniera abbastanza 
marcata da quello di crescita fisica. Un 
esempio familiare è costituito dai! 'ap- 
prendimento della deambulazione. I neo- 
nati, se adeguatamente sorretti, sono in 
grado di marciare lungo una superficie 
piana: tale capacità attesta l'esistenza di 
una notevole coordinazione sensomoto- 



ria.che tuttavia scompare verso l'ottava 
settimana. Nessun tipo di deambulazione 
di solito sarà più rilevabile sino alla fine 
del primo anno di vita. 

A un livello alquanto più complesso il 
neonato può, durante le prime settima- 
ne, arrivare a tastare oggetti messigli a 
portata di mano e, qualche volta, ad af- 
ferrarli. Anche la coordinazione visiva- 
-manuale scompare verso la quarta setti- 
mana per ricomparire soltanto verso la 
ventesima. Ugualmente, i neonati pre- 
semano una notevole coordinazione udi- 
tiva-mamiale. Si dimostrano molto pron- 
ti e abili a raggiungere e stringere oggetti 
che possono udire, ma non vedere, sia 
che si tratti di bambini non vedenti che 
normovedenti. Tale capacità, di imme- 
diata utilità pratica per i bambini non 
vedenti, scompare al quinto o sesto mese 
e nel pìccolo non vedente può anche 
perdersi per sempre. 

A H 'area della coordinazione sensomo- 
-**' tori a, ma a un livello di complessità 
ancora più elevata, si deve riferire la 
straordinaria capacità dei neonati di imi- 
tare il comportamento di un adulto. So- 
no, per esempio, molto abili nell'imitare 
un adulto che tiri fuori la lingua, apra la 
bocca, spalanchi gli occhi. Questa facol- 
tà rappresenta il più straordinario esem- 
pio di capacità del sistema percettivo 
infantile. Cerchiamo di comprendere che 
cosa significhi imitare qualcuno che tira 
fuori la lingua. Il bambino deve dappri- 
ma stabilire che quanto vede nella bocca 
di un adulto è una lingua (continuerò a 
non specificare «esso o essa vede» per 
non appesantire eccessivamente il discor- 
so). Deve poi capire che la «cosa» che 
non può vedere, ma percepisce all'inter- 
no della propria bocca, è una lingua, 
uguale a quella che osserva. Deve poi 
eseguire movimenti muscolari abbastan- 
za complessi per imitare quanto vede. La 
capacità di imitare sembra essere essen- 
zialmente una proprietà sociale. Il neo- 
nato e la madre si perdono estaticamente 



in giochi di imitazione. Per quanto tale 
capacità imitativa appaia molto precoce- 
mente sembra poi rapidamente svanire, 
riapparendo soltanto verso la fine del 
primo anno di vita. 

La perdita di capacità non si limita al- 
la sfera sensomotoria e neppure all'in- 
fanzia. Il modello di perdita e riacquisi- 
zione di capacità si estende alle facoltà 
intellettuali di tipo astratto e persiste lun- 
go tutta la prima e seconda infanzia. Per 
esempio, gli adulti sanno perfettamente 
che il peso di un blocco di creta non 
muta con il variare della forma. Questo 
è un fatto che il bambino deve scoprire 
non una, ma tre volte, durante il proprio 
sviluppo. 

Se a un bambino di un anno viene 
presentata una palla di creta, molto pro- 
babilmente ne valuterà in maniera errata 
il peso la prima volta che la solleverà. 
Tuttavia, dopo che gli sarà stata presen- 
tata due o tre volte, il suo comportamen- 
to dimostrerà in modo inequivocabile che 
conosce il peso dell'oggetto: la solleverà 
con mano sicura collocandola dove vuo- 
le, senza alcuna perplessità. Supponiamo 
ora che la palla venga trasformata in una 
forma allungata sotto gli occhi del bam- 
bino. Cosa succederà quando la solleve- 
rà? Caratteristicamente, la sua mano o- 
scillerà sopra la testa, dimostrando di 
ritenere che l'oggetto è divenuto molto 
più pesante perché più lungo. Compirà 
poi l'errore opposto se lo sperimentatore 
trasformerà la forma allungata di creta 
in una tondeggiante. Concludendo: il 
bambino di un anno non è in grado di 
comprendere il concetto di conservazio- 
ne del peso. 

Se allo stesso bambino si impone lo 
stesso compito all'età di 18 mesi, non 
farà alcun errore di valutazione. Pren- 
dendo ti suo comportamento come indice 
di quanto sa, si può dedurre che un 
bambino di tale età sa che il peso di un 
oggetto non sì modifica con il variare della 
forma. Riassumendo: un bambino di 18 
mesi ha appreso, almeno prowisoriamen- 




All 'età di 10 giorni un neonato di sesso maschile raggiunge e afferra 
senza alcuna esitazione una campana, dimostrando il notevole grado 
di organizzazione del sistema percettivo infantile e l'elevala precisione 
della coordinazione visiva-manuate. Quando il neonato perù, raggiun- 



ge le quattro settimane questa capacità scomparirà e ricomparirà sot- 
tarco dopo quadro mesi. Queste illustrazioni, da leggersi partendo da 
sinistra a destra e dall'alto in basso, sono fotogrammi tratti da un film 
girato nel laboratorio dell'autore presso l'Università di Edimburgo. 



20 



21 




Una neonata di sei giorni cammina su una superficie piana come un bambino dì maggior età, se 
e adeguatamente sorretta. Questa notevole capacità sensomotoria scompare verso l'oliata 
settimana e non si manifesta più sotto nessuna forma sino alla fine del primo anno di vita. 




Una neonata di sei giorni imita la madre che sporge la lingua. La capacità di imitare costituisce 
un atto molto più complesso che la prensione o la deambulazione: richiede che il bambino 
sappia riconoscere che quello che vede nella bocca della madre è una lingua (a sinistra) e che 
quanto percepisce, senza vedere, nella propria è anch'essa una lingua. Il neonato deve poi 
eseguire complesse azioni muscolari per tirare fuori la lingua (a destra). Anche la capacità di 
imitare sembra scomparire precocemente, riapparendo soltanto verso il primo anno di vita. 



Quando ho incominciato a studiarli sono 
partito dalla elementare supposizione che 
una ripetizione è una ripetizione e che lo 
studio di qualsiasi tipo di ripetizione, sia 
sensomotoria sia intellettiva, avrebbe al- 
la fine portato a una teoria generale 
della ripetizione nello sviluppo. Di con- 
seguenza ho cominciato con il considera- 
re il più semplice e rapido processo ripe» 
titivo: la prensione. 

Nello studio dei processi ripetitivi esi- 
stono due precìsi problemi. Primo, per 
quale meccanismo la fase più precoce di 
acquisizione di una capacità - definita fa- 
se 1 - tende a un fine? Secondo, esiste 
una relazione fra la fase le la fase 2 o 
qualsiasi altra successiva? È infatti diffi- 
cile stabilire, in base a una metodologia 
rigorosamente valida, l'esistenza di una 
relazione fra due fasi comportamentali 
separate, durante lo sviluppo. Il solo 
esempio di un certo valore è l'ipotesi 
relativa all'addestramento precoce: se si 
può dimostrare che l'uso di un certo tipo 
di comportamento nella fase 1 ne agevo- 
la la comparsa nella fase 2 si può dimo- 
strare che esiste un esempio in favore 
dell'ipotesi secondo cui le due fasi sono 
interconnesse. Non si tratta di un esem- 
pio inconfutabile, ovviamente, ma è pur 
sempre un esempio. 

Di conseguenza ho addestrato intensi- 
vamente numerosi gruppi di neonati alla 
prensione durante la fase 1 , nelle prime 
settimane di vita. I risultati sono stati 
moderatamente significativi e in accordo 
con quanto precedenti ricercatori aveva- 
no concluso relativamente alla deambu- 
lazione: quanto più l'apprendimento di 
un comportamento viene compiuto nella 
fase 1 tanto più presto riapparirà nella 
fase 2. Nelle mie indagini ho osservato 
anche sette casi in cui la capacità della 
prensione non veniva perduta dopo la 
fase 1. 

"T'ali risultati dimostrerebbero che il 
J- motivo per cui determinate capacità 
scompaiono è dovuto al fatto che non 
vengono esercitate. Secondo me, con l'e- 
sercizio e il rinforzo, tali facoltà potreb- 
bero anche permanere. Se non scompaio- 
no questo confermerebbe la teoria tradi- 
zionale che lo sviluppo psicologico costi- 
tuisce un processo continuo e progressi- 
vo come la crescila fisica. 

Per verificare questa ipotesi ho sele- 
zionato, unitamente ai miei colleghi del- 
l'Università di Edimburgo, vari compiti 
per alcuni bambini, di pochi giorni o 
settimane, sottoponendoli a esercizi in- 
tensivi per metterli in grado di eseguirti 
non appena avessero dimostrata la capa- 
cità. I risultati sono apparsi a dir poco 
controversi. Per esempio, l'esercizio della 
coordinazione uditivo-manuale nella fase 
1 ha addirittura accelerato la scomparsa 
della coordinazione, ritardandone la ri- 
comparsa nella fase 2, Ciò sembrerebbe 
confermato sta per i neonati normali, 
analizzati in condizioni di oscurità, sia 
per quelli non vedenti. Nel caso di com- 
piti di tipo astratto i risultati sono stati 
incongruenti. Talvolta l'uso di una fa- 
coltà durante la fase precoce ne ha acce- 



lerato la ricomparsa, ma aumentando il 
numero globale di esercìzi non si è otte- 
nuta una ricomparsa ancora più rapida. 

Riportiamo un esempio: ai bambini 
veniva dato un compito consistente in un 
problema di calcolo che implicava il con- 
cetto di conservazione. A un bambino 
venivano mostrati dolci in file accoppia- 
te in cui la lunghezza delle file, lo spazio 
fra i dolci e il loro numero variava. Si 
permetteva poi al bambino di scegliere la 
fila che voleva. Se sceglieva sempre quel- 
la contenente il maggior numero dì dolci 
sì poteva dedurne che possedeva una pri- 
mitiva capacità di calcolo. Una elevata 
percentuale di bambini fra i due anni e i 
due anni e mezzo sapeva dare una corret- 
ta risposta verbale. In seguito diventava- 
no incapaci di rispondere in maniera e- 
satta sino a quasi cinque anni di età. 

Anche prima dei due anni c'è una fase 
durante la quale i bambini possono ri- 
spondere correttamente a simili compiti 
(benché a quell'età non possano rispon- 
dere verbalmente). Fu questa fase inizia- 
le sulla quale investigammo. Con la pra- 
tica le risposte di scelta dei bambini di- 
vennero quasi esatte. Eppure all'età di 
due anni o di due anni e mezzo, quando 
gli altri bambini possono dare delle esat- 
te risposte verbali, solo una piccola per- 
centuale dei bambini esercitati risponde- 
vano correttamente. La percentuale dei 
bambini che alla fine acquisivano la ca- 
pacità di dare delle risposte verbali cor- 
rette all'età di 5 anni, comunque, non 
sembrava essere modificata. 

Avviliti dal fatto che la nostra prima 
spiegazione dei processi ripetitivi nello 
sviluppo fosse fallita, decidemmo dì ri- 
tornare al nostro precedente studio sul 
processo di prensione e di riesaminare le 
sue caratteristiche nella fase 1, parago- 
nandole alle sue caratteristiche nella fase 
2. Abbiamo riscontrato che i bambini 
che hanno messo in atto il suddetto pro- 
cesso nella fase 1 erano migliori neh" af- 
ferrare, capacità riapparsa nella fase 2, 
rispetto ai bambini ai quali non era stata 
fatta fare alcuna pratica nella prima fa- 
se. Specificatamente, erano bambini più 
abili degli inesperti nel! 'afferrare oggetti 
penzolanti presentati nelle diverse posi- 
zioni. Essi, inoltre, erano particolarmen- 
te bravi nell'af ferrare in condizioni di 
confusione visiva. 

"^T el corso di una indagine da noi con- 
1 ™ dotta avevamo adottato per i bam- 
bini speciali occhiali che consistevano in 
due prismi cuneiformi sottili invece delle 
lenti. I prismi spostavano la posizione 
apparente di un oggetto rispetto alla sua 
reale posizione. Bambini normali che 
non avevano pratica nell'afferrare avreb- 
bero diretto la mano verso la posizione 
apparente dell'oggetto, quindi senza ri- 
sultato. Sarebbero poi rimasti immobili 
per un certo tempo, con l'oggetto e la 
mano entrambi nel loro campo visivo, 
prima di spingere la mano dietro, rag- 
giungendolo e perdendolo nuovamente. 
Questi bambini sembravano dunque com- 
pletamente incapaci di usare la visione 
della loro mario per correggere il proprio 




Il concetto della conservazione del peso può essere acquisito non una sola, ma tre volte nel corso 
dello sviluppo infantile. Se al bambino di un anno viene presentala una palla di creta, caratteri- 
sticamente ne sbaglierà il peso la prima volta che gli verrà presentata {/). Presto, tuttavia, il suo 
comportamento indica che ha appreso a valutare il peso dell'oggetto prima di prenderlo 12). La 
palla di creta viene poi trasformata, sotto gli occhi del bambino, in una forma allungata (3), 
Quando il bambino afferra questa nuova forma, al/a, in maniera significativa, la mano sopra la 
lesta iJi indicando che la ritiene più pesante della palla perché più lunga. Questo comportamen- 
to erroneo scompare a 18 mesi.soltanto per riapparire e scomparire due volte nelle età succes- 
sive. Il bambino acquista un definitivo concetto della conservazione del peso nell'adolescenza. 



comportamento nell'afferrare gli oggetti. 
In contrasto, bambini maggiori di età 
che non abbiano nessuna pratica nell'af- 
ferrare e alcuni più piccoli di età ai quali 
sia stata fatta fare pratica, raggiungereb- 
bero prima la posizione scorretta e poi, 
non appena la loro mano venisse nella 
giusta traiettoria, afferrerebbero l'ogget- 
to con accurata perfezione. Questi bam- 
bini dimostravano di essere in grado di 
utilizzare la visione della loro mano per 



correggere i propri movimenti. I bambini 
normali che non abbiano fatto pratica 
acquisiscono quest'abilità all'età di 24 
settimane; comunque, i bambini ai quali 
sia stata fatta fare pratica eseguono que- 
sto compito a 1 9 settimane. 

Questa duttilità accelerata viene acqui- 
sita a un prezzo, come dimostrerà un 
secondo esperimento. Per l'esperimento i 
bambini furono messi in una stanza illu- 
minata ma non troppo. Fu loro mostrato 



POSIZIONE 

PERCEPITA 

DELL'OGGETTO 




OCCHIO 



POSIZIONE 

REALE 

DELL'OGGETTO 



In prisma cuneiforme adattato agli occhiali sposta la localizzazione apparente di un oggetto da 
quella reale. L'effetto del prisma sui bambini può essere valutato nelle due pagine successive. 



22 



23 




[ n bambino molto piccolo che porla prismi cuneiformi cerca di raggiungere la posizione dove 
crede sia l'oggetto e lo manca. Dopo essere rimano fermo per un certo tempo con entrambe le 
mani e l'oggetto nel campo visivo, cerca di prendere l'oggetto e sbaglia ancora. Sembra inca- 
pace di usare II mezzo visivo a sua disposizione per correggere la posizione della mano. 



un gioco, ma ne furono tenuti lontani fin- 
ché le luci della stanza non furono spen- 
te. Essi dovettero accostargli nel buio. 
Il loro comportamento nel buio fu segui- 
to con un televisore a raggi infrarossi. I 
bambini più piccoli, come è prevedibile 
dall'esperimento condotto con il prisma 
cuneiforme, non furono distratti dall'o- 
scurità: le loro mani si diressero subito ad 
afferrare l'oggetto. I bambini maggiori 
di età e quelli la cui flessibilità era stata 
accelerata erano molto incerti. Sebbene 
anche loro riuscissero, lo fecero in modo 
meno diretto; essi annasparono verso 
l'oggetto invece di afferrarlo. Sembrava 
che la loro capacità di impiegare il mezzo 
visivo li avesse portati a rilassarsi, cosic- 
ché una volta rimasti privi di esso, si 
trovavano persi. 

Se il cambiamento principale nello svi- 
luppo dell'abilità di un bambino nella 
prensione, è l'acquisizione del controllo 
visivo, come fece l'esercizio fatto duran- 
te la prima fase della prensione ad acce- 
lerare la comparsa del controllo visivo 
nella fase 2? E chiaro che l'afferrare un 
oggetto con l'aiuto visivo richiede più 
attenzione che senza tale guida: al bam- 
bino si richiede più attenzione quando 
deve occuparsi sia della mano sia dell'og- 
getto di quando deve pensare solo all'og- 
getto. È anche chiaro che all'inizio il 
bambino non può occuparsi contempo- 
raneamente dell'oggetto e della sua ma- 
no. A una certa età la mano e l'oggetto 
sembrano attrarre la stessa attenzione. 
La precedente pratica dovrebbe comun- 
que sfociare nella presenza della mano 
nel campo visivo, molto di più che se 
questa pratica non venisse effettuata. Per 
i bambini più avanzati la mano dovrebbe 
essere una visione più familiare. È risa- 
puto da molti altri studi fatti che gli 
oggetti familiari richiedono meno atten- 
zione degli oggetti sconosciuti. Tuttavia è 
possibile che l'esercizio durante la prima 
fase acceleri l'abilità di afferrare nella se- 
conda fase, rendendo più familiare al 
bambino la visione della propria mano. 

Anche se questa applicazione per lo 
sviluppo della prensione è corretta, non 
c'è ragione di aspettarsi che lo stesso 
esempio possa essere applicato ad altre 
capacità. Sembra necessario cercare altre 
spiegazioni per le altre ripetizioni, oppu- 
re sperare di poter ottenere una teoria 
generale di ripetizione nello sviluppo. Di- 
fatti, diverse spiegazioni specifiche per 
differenti abilità specifiche erano già 
pronte. Per esempio, la grande abilità 
dei bambini appena nati di imitare gli 
adulti scompare a una certa età. Colwyn 
Trevarthen di Edimburgo ha messo in 
chiaro che i bambini nel gruppo di età 
che non imitano gli adulti sono però 
felici di essere a loro volta imitati. Se un 
bambino sa di essere imitato, dovrebbe 
avere a sua disposizione esattamente la 
stessa percentuale di mezzi di cui avreb- 
be bisogno per imitare qualcun altro. La 
regressione nel comportamento imitativo 
di un bambino non deve necessariamente 
quindi comportare una perdita di abilità, 
ma è indice invece di un cambiamento. Il 
bambino ha la capacità di imitare ma 



sceglie di impiegarla per scoprire altre 
imitazioni di se stesso. 

Le variazioni motivazionali incluse nel- 
la lista di ipotesi impossibili per le 
ripetizioni apparenti nello sviluppo ci 
guidano a quello che io credo sia la 
spiegazione esatta per il declino, alcune 
volte permanente, del coordinamento u- 
ditivo-manuale. La spiegazione è basata 
sulla differenza tra le condizioni normali 
dello stimolo visivo e quelle dello stimo- 
lo uditivo. La situazione dei bambino 
rispetto allo stimolo visivo è normalmen- 
te di tipo attivo: egli può guardare le 
cose che lo interessano e può trascurare 



quelle che lo annoiano o lo disturbano. 
Egli può chiudere gli occhi se lo deside- 
ra. La sua situazione rispetto allo stimo- 
lo uditivo è abbastanza diversa: si tratta 
di una situazione passiva. Il bambino 
non può provocare i suoni che gli piac- 
ciono o eliminare quelli che non gli piac- 
ciono. Non può chiudere le orecchie co- 
me invece può fare con gli occhi. In 
breve egli non ha alcun controllo sulla 
ricezione uditiva. 

Situazioni passive di questo tipo han- 
no effetti importanti sullo sviluppo. Gli 
esperimenti classici sugli effetti della pas- 
sività furono fatti con la vista, usando i 
gatti come soggetti (si veda l'articolo Pia- 



si icity in Sensory-Motor System di Ri- 
chard Held in «Scientific American», 
novembre 1965). 1 gatti che furono tenu- 
ti per un periodo di sole 30 ore in condi- 
zioni in cui non era loro permesso di 
rispondere allo stimolo visivo divennero 
funzionalmente ciechi. Quando fu loro 
presentato un qualsiasi tipo di stimola- 
zione visiva, essi non ebbero nessuna 
reazione. 

1 risultati degli esperimenti sui gatti ci 
suggeri che l'intelligenza infantile perde 
il suo coordinamento uditivo-manuale 
poiché i bambini sono passivi alla pre- 
senza dello stimolo uditivo. Come pos- 
siamo presentare un'informazione uditi- 




Un bambino in età più avanzata cerea di raggiungere la posizione 
apparente di un oggetto e incomincia a sbagliarlo. Appena la sua 



mano entra nel campo visivo, tuttavia, è in grado di utilizzare la vista 
per correggere la traiettoria e giungere con precisione sull'oggetto. 



24 



25 




L'n bambini) non vederne curi un'apparecchiatura sonar può controllare attivamente i suoi 
stimoli acustici quanto può fare un bambino normale con gli stimoli visivi chiudendo gli occhi e 
volgendo lo sguardo altrove. L'apparecchio invia onde ultrasoniche che vengono riflesse dagli 
oggetti. Gli echi sono poi trasformali nello strumento stesso in suoni percepibili. La natura di 
tati suoni dipende dalla distanza, dimensione e struttura degli oggetti. En questa sequenza 
televisiva quando il bambino non vedente viene spinto da un adulto verso un palo metallico 
allunga le mani come per stringerlo, analogamente a quanto farebbe un bambino vedente. 



va al bambino in modo tale da dargli un 
ruolo attivo? 

FVopo qualche tentativo trovammo che 
U la risposta era quella di adattare al 
bambino un apparecchio ultrasonico eco- 
posizionale. L'apparecchio emetteva vi- 
brazioni di onde sonore a frequenza ul- 
trasonica in un cono con un'ampiezza di 
80 gradi. A causa dell'alta frequenza de! 
suono le vibrazioni non potevano essere 
udite. Gli echi ultrasonici rimbalzavano 
al di là degli oggetti nel campo dell'ap- 
parecchio. L'apparecchio stesso conver- 
tiva gli echi ultrasonici in suoni udibili 
che venivano incanalati direttamente nel- 
le orecchie del bambino. Più l'oggetto 
era vicino a lui, più il suono risultava 
basso, più l'oggetto era grande, più l'in- 
tensità del suono era aita. Gli oggetti alla 
destra del bambino producevano un suo- 
no più intenso nel suo orecchio destro e 
quelli alla sinistra producevano un suono 
più intenso nell'orecchio sinistro. Oggetti 
posti esattamente davanti producevano 
suoni ugualmente intensi in entrambi gli 
orecchi. Oggetti duri producevano un suo- 
no chiaro e oggetti morbidi un suono un 
po' più confuso. 

La più importante caratteristica del- 
l'apparecchio è comunque il fatto che 
qualsiasi persona lo indossi ha un con- 
trollo diretto sul suono incanalato nei 
propri orecchi. Chi lo indossa può con- 
centrarsi su oggetti che lo interessano; 
può allontanarsi da oggetti noiosi e per 
questo farli «tacere»; può acquisire infor- 
mazioni su alcuni oggetti passando loro 
accanto, e cosi via. In altre parole, chi lo 
indossa ha un controllo attivo su almeno 
questo tipo dì stimolazione uditiva. Se la 
nostra ipotest sulla scomparsa della nor- 
male coordinazione uditivo-manuale è e- 
satta, il comportamento guidato dall'ap- 
parecchio ultrasonico non dovrebbe 
scomparire. 

L'apparecchio è stato provato solo su 
bambini congenitamente non vedenti. I 
risultali, comunque, furono abbastanza 
soddisfacenti. Non solo il comportamen- 
to uditivo-manuale non diminuì, ma il 
bambino sviluppò effettivamente capaci- 
tà paragonabili a quelle acquisite da un 
normale neonato della stessa età. Inoltre, 
l'esperimento mostrò chiaramente la fles- 
sibilità del sistema percettivo del bambi- 
no appena nato. Nessun organismo nella 
storia della vita aveva mai ricevuto gli 
stimoli che aveva avuto questo bambino, 
eppure egli cominciò a conoscere il senso 
del suono entro pochi secondi dall'appli- 
cazione dell'apparecchio. 

T\ei più importanti tipi di processo ri- 
*-* pentivo che ho descritto, il solo per 
il quale non ho dato spiegazioni è la ri- 
petizione conoscitiva. In realtà una spie- 
gazione esiste ma è estremamente com- 
plessa. Alcuni degli esperimenti che ho 
escogitato per verificare la spiegazione 
hanno comunque reso più interessante il 
problema della natura dello sviluppo in- 
tellettivo, particolarmente nell'infanzia. 
La nostra spiegazione per la ripetizio- 
ne nello sviluppo conoscitivo è basata su 



dati ottenuti da esperimenti condotti sul- 
lo sviluppo percettivo a breve termine. 
Consideriamo un semplice esperimento 
relativo all'abitudine. Se si mostra a un 
bambino un cubo con una orientazione 
costante per IO volte e per un tempo di 
30 secondi ogni volta, egli guarderà il 
cubo progressivamente meno. Questo de- 
crescente livello di attenzione indica che 
il bambino ha riconosciuto che sta guar- 
dando lo stesso oggetto ogni volta. Sup- 
poniamo che si mostri ora al bambino 
un cubo per 10 volte, ma ogni volta il 
cubo sia in una differente orientazione: 
il bambino mostra esattamente lo stesso 
declino nel tempo che impiega a guarda- 
re il cubo. 

Questo fenomeno fornisce molte infor- 
mazioni su come il bambino ricorda gli 
oggetti. Chiaramente il piccolo non può 
avere nella memoria un'immagine speci- 
fica del cubo in una precisa orientazione, 
perché ogni volta che il cubo è presenta- 
to ha una orientazione differente. Que- 
sto significa che il bambino deve ricor- 
dare da una presentazione all'altra che 
forma ha il cubo senza ricordarne l'o- 
rientazione. Questo tipo di memoria è in 
effetti abbastanza astratto; in verità deve 
essere quasi astratto come può esserlo 
una parola. Mancano anche i dettagli 
dell'oggetto, perfino dettagli importanti 
come l'orientazione. Tuttavia, se al bam- 
bino è dato tempo sufficiente, può inter- 




^K 



3- 




3- 



namente costruirsi una descrizione abba- 
stanza dettagliata dell'oggetto, in modo 
tale che anche un leggero cambiamento 
nell'oggetto stesso fermerà la diminuzio- 
ne nel suo comportamento che riguarda 
l'osservazione. Cosi la descrizione inte- 
riore da parte del bambino di un oggetto 
può mutare da piuttosto astratta a di- 
scretamente specifica. 

I miei colleghi e io pensiamo che un a- 
nalogo tipo di processo sia alla base dello 
sviluppo conoscitivo: crescendo, il bam- 
bino progressivamente elabora le sue de- 
scrizioni interiori degli eventi in maniera 
da renderle più specifiche. Un tale cam- 
biamento in favore di una più specifica 
descrizione agisce in modo da diminuire 
la probabilità di un armonioso passaggio 
da una capacità all'altra, aumentando 
d'altra parte la probabilità di una appa- 
rente ripetizione. Consideriamo il pro- 
blema presentato a un bambino dalla vi- 
sta di un oggetto che entra da una parte 
di un tunnel ed esce dall'altra. Inizial- 
mente il bambino può rifiutarsi dì pre- 
stare attenzione a questo tipo di espe- 
rienza. Una volta capito che l'oggetto 
che vede alle due estremità del tunnel è 
lo stesso, il che non è facile, egli deve 
immaginare cosa accade all'oggetto 
quando è fuori dalla sua vista (si veda 
l'articolo L 'oggetto nel mondo del bam- 
bino di T.G.R. Bower in «Le Scienze», 
n. 41, gennaio 1972). 




J 




-e 



5- 



A mio parere la prima scoperta del 
bambino è che un oggetto può andare 
dentro un altro e continuare a esistere. Si 
tratta dì un'ipotesi relativamente astratta 
circa il mondo; essa non migliorerà par- 
ticolarmente l'abilità del bambino di se- 
guire l'oggetto attraverso il tunnel. Quel- 
lo che l'ipotesi farà è di permettere al 
bambino di trasferire la sua comprensio- 
ne dalla situazione del seguire ad altre si- 
tuazioni. Supponiamo che un bambino 
che comprende questa ipotesi veda ora 
un giocattolo posto sotto una di due 
tazze. Dovrebbe sapere ora che il giocat- 
tolo è sotto una tazza precisa e di conse- 
guenza essere capace di ritrovarlo. Se il 
giocattolo si trova sotto l'altra tazza, egli 
dovrebbe essere in grado di ritrovarlo 
sotto quest'ultima. È esattamente ciò che 
avviene se al bambino viene dato questo 
compito di trasferimento. 

Se il bambino poi acquisisce una mag- 
gior pratica attraverso il compito di se- 
guire l'oggetto nel tunnel, accade, però, 
qualcosa di diverso. Dopo breve tempo, 
prontamente elabora specifiche regole 
sensomotorie che lo rendono capace di 
seguire l'oggetto in maniera molto effi- 
ciente. Egli mostra con il suo comporta- 
mento di sapere che per vedere l'oggetto, 
sparito dalla parte sinistra dei tunnel, 
deve cercarlo dalla parte destra, dopo 
alcuni secondi. La sua conoscenza della 
natura spaziale e temporale del compito 




Si 




Z3rO- 

litui,.*».»!*,)? 



L'esercizio di inseguimento consiste nel presentare a un bambino un 
oggetto che penetra nell'estremità di un tunnel e riappare, dopo alcuni 
secondi, all'estremità opposta. Dapprima ì bambini possono essere 
sorpresi e turbati da questo tipo di manifestazione Un alto). Possono 



anche rifiutare di guardare sino a quando imparano che un oggetto 
può entrare in un altro e ugualmente esistere. Appreso il concetto 
possono inseguire, con la pratica, l'oggetto con tale precisione da in- 
tercettarlo con lo sguardo in qualsiasi punto dello spazio {in basso). 



26 



27 



di inseguimento, diventa molto dettaglia- 
ta. I bambini che hanno avuto settimane 
di esperienza con gli esercizi dì insegui- 
mento non impiegano molto tempo per 
guardare ciò che viene loro presentato, 
ma possono muovere gli occhi con preci- 
sione, per afferrare l'oggetto in qualsiasi 
punto dello spazio. 

C e a questi bambini viene dato ancora 
W da cercare il giocattolo nascosto sot- 
to il recipiente, riescono meglio dei bam- 



bini che non hanno alcuna esperienza 
nell'esercizio di inseguimento. Non lo 
fanno bene, comunque, come altri bam- 
bini a cui viene dato da fare questo gioco 
dopo aver fatto alcuni esercizi di insegui- 
mento, ma non tanto quanto avrebbero 
dovuto. In particolare, se il bambino 
osserva che il giocattolo viene posto sot- 
to il secondo recipiente, dopo alcuni ten- 
tativi tenderà ancora a guardare sotto il 
primo recipiente. Il bambino sembra, 
dunque, ripetere una fase dello sviluppo, 



non capendo ancora, per una seconda 
volta, la relazione tra due oggetti inseriti 
uno nell'altro. Secondo me quello che 
causa tale ripetizione è il fatto che, aven- 
do acquisito tanta esperienza nell'inse- 
guire un oggetto attraverso un tunnel, il 
bambino si è formato regole cosi specifi- 
che rispetto all'esercizio di inseguimento 
da essere effettivamente ostacolato da 
esse quando si trova di fronte a una 
situazione analoga ma non identica. Un 
bambino che abbia fatto meno esercizio 



di inseguimento ha la scoperta iniziale 
del concetto (un oggetto può andare den- 
tro un altro e continuare a esistere) an- 
cora in mente ad aiutarlo nel compiere 
l'esercizio di trasferimento. 

Questo tipo di modello di sviluppo 
concettuale può spiegare esempì sbalordi- 
tivi di processi ripetitivi in cui il bambino 
più piccolo dà risposte verbali esatte a 
un problema mentre un bambino di mag- 
giore età risponde in maniera errata. In 
questo caso, il concetto di base è stato 



acquisito tardivamente nell'infanzia. 
Quando i test verbali sono stati presenta- 
ti per la prima volta, non c'è stato abba- 
stanza tempo perché la scoperta iniziale 
sia stata specificata al punto che il bam- 
bino sia incapace di applicarla ad altre 
situazioni. Con bambini di età maggiore, 
però, la scoperta iniziale è divenuta alta- 
mente specifica. La relazione tra il pro- 
blema iniziale e il nuovo problema è 
perciò offuscata. Essi devono cancellare 
dalla memoria la scoperta iniziale, sba- 



gliando prima di riuscirvi e dando l'im- 
pressione di ripetere una fase precedente 
dello sviluppo conoscitivo. 

Le varie spiegazioni dei processi ripeti- 
tivi dello sviluppo sembrano dunque 
differire a seconda delle circostanze. Quel- 
lo che tutte hanno in comune è, comun- 
que, 11 fatto che avvalorano l'ipotesi se- 
condo cui lo sviluppo psicologico, mal- 
grado mutamenti e ripetizioni, costituisce 
un processo continuo e integrativo. 




L'esercizio di trasferimento utilizza il concetto che un oggetto puù 
l'in rari- in un nitro e ancora sussìstere. Un bambino osserva un adulto 
porre un giocattolo sotto uno di due recipienti e viene poi incoraggiato 



a scegliere quello che nasconde il giocattolo. Un bambino con qualche 
esperienza di inseguimento esegue mollo bene questo esercizio (se- 
quenza in aito). Un bambino con molta esperienza di inseguimento, 



però, lo fa meno bene per quanto la sua esecuzione sìa migliore di 
quella di un bambino totalmente privo di esperienza. In particolare, se 
il bambino vede che il giocattolo viene posto sotto il secondo recipiente. 



dopo che è stato nascosto per alcune volte sotto il primo, tenderà a guar- 
dare quest'ultimo (sequenza in basso}. Il concetto acquisito nell'eserci- 
zio di inseguimento è divenuto così specifico che ostacola il bambino. 



28 



29 



Il confinamento dei quark 



Come mai non è ancora stato possibile osservare queste particelle 
elementari così importanti? È probabile che i quark siano trattenuti 
entro altre particelle da forze inerenti allo loro stessa natura 



di Yoichiro Nambu 



Una particella elementare è, a rigore, 
una particella priva di struttura 
interna, che non può essere spez- 
zata in particelle costituenti più piccole. 
Nell'ultimo decennio è apparso chiaro 
che molle particelle credute elementari 
per tanto tempo, tra le quali il protone e 
il neutrone ben noti, non io sono affat- 
to, ma sembrano essere strutture compo- 
ste costituite da entità più elementari 
dette quark, esattamente allo stesso mo- 
do in cui un atomo è formato da un 
nucleo e da elettroni. 

Il modello a quark corrisponde a una 
straordinaria semplificazione della natu- 
ra. Nella formulazione iniziale della teo- 
ria si era ipotizzata l'esistenza di tre sole 
specie di quark e quelle tre bastavano 
per rendere conto delle proprietà di una 
intera classe di particelle con parecchie 
dozzine di membri. Ogni membro cono- 
sciuto di tale classe poteva essere inter- 
pretato come una combinazione di quark; 
inoltre, qualsiasi combinazione di quark 
permessa poteva dare orìgine a una par- 
ticella conosciuta. La corrispondenza tra 
teoria e osservazioni sembrava troppo 
stretta per essere casuale e furono messi 
in atto esperimenti allo scopo di rivelare 
gli stessi quark. 

Se i quark sono particelle reali, sem- 
bra ragionevole che si debba essere in 
grado di osservarli. Sappiamo che l'ato- 
mo è formato da un nucleo e da una 
nuvola di elettroni circostanti perché pos- 
siamo prendere in esame un atomo e stu- 
diarne separatamente i costituenti. Sap- 
piamo che il nucleo è formato a sua 
volta da protoni e neutroni perché il 
nucleo può essere scisso in frammenti e 
se ne possono identificare le particelle 
che lo costituiscono. È facile pensare a 
un analogo esperimento nel quale vengo- 
no violentemente decomposte particelle 
che si ritiene siano fatte di quark, per 
esempio i protoni. Tuttavia, quando si 
compie tale tentativo i frammenti com- 
prendono solo protoni e altre particelle 
familiari. Non si osservano oggetti con le 
proprietà attribuite ai quark. I fisici han- 
no cercato in lungo e in largo, ma non 
sono stati osservati quark liberi. 



È possibile, naturalmente, che nessuno 
degli esperimenti finora eseguiti abbia 
indagato nel posto giusto o con gli stru- 
menti adatti, ma ciò appare oggi impro- 
babile. È anche possibile semplicemente 
che i quark non esistano, ma i fisici sono 
riluttanti ad abbandonare una teoria do- 
tata di una tale capacità esplicativa. I 
successi delia teoria costituiscono una 
conferma stimolante dell'esistenza dei 
quark all'interno di particelle come il 
protone; d'altra parte i ripetuti fallimen- 
ti delle ricerche sperimentali dì quark 
liberi ci fanno concludere che i quark 
non esistono isolati. Questo paradosso 
può essere risolto, ma soltanto con ulte- 
riori ipotesi teoriche sui quark e sulle 
forze che lì tengono assieme. Si deve 
dimostrare che i quark esistono ma che 
per qualche ragione essi non appaiono 
allo scoperto. I teorici, a cui si deve 
l' introduzione dei quark, devono ora spie- 
gare il loro confinamento all'interno del- 
le particelle da loro costituite. 

Le particelle che sì pensa siano fatte di 
quark corrispondono agli adroni che 
sono caratterizzati dal fallo di interagire 
reciprocamente mediante forza forte, la 
forza che tiene insieme le particelle nel 
nucleo. Nessun'altra particella è sensibile 
alia forza forte. 

Gli adroni si dividono in due grandi 
sottogruppi chiamati barioni e mesoni. 
Questi due tipi di particelle differiscono 
in molte delle loro proprietà e hanno in 
effetti ruoli differenti nella struttura del- 
la materia, ma la distinzione tra esse può 
essere fatta molto più chiaramente nel 
contesto del modello a quark. Tutti i 
barioni sono fatti da tre quark e vi sono 
anche gli antibarioni che sono fatti da 
tre antiquark. Il protone e il neutrone 
sono tra ì barioni quelli di massa minore 
e i più noti. I mesoni hanno una diffe- 
rente struttura: sono fatti da un quark 
legato a un antiquark. Il mesone pi, o 
pione, è tra i mesoni quello di massa 
maggiore. 

Le proprietà degli adroni sì possono 
forse illustrare meglio confrontandoli 
con l'altro grande gruppo di particelle: i 



leptoni. [ leploni non sono sensibili alla 
forza forte (altrimenti sarebbero adroni) 
e comprendono solo quattro particelle: 
l'elettrone, il muone, il neutrino elettro- 
nico e il neutrino muonico (con le quat- 
tro antiparticelle corrispondenti). I lep- 
loni sembrano realmente elementari. In- 
fatti pare che non abbiamo dimensioni e 
possono essere rappresentali come parti- 
celle puntiformi: non sembra quindi pos- 
sibile che abbiano una struttura interna. 

Gli adroni differiscono dai leptoni sot- 
to molti aspetti e ciò fornisce parecchie 
tracce per spiegare la loro natura com- 
posita. Gli adroni hanno dimensioni fini- 
te anche se straordinariamente piccole: 
circa 10"' J centimetri. Esperimenii di col- 
lisione di protoni e neutroni dì alta ener- 
gia con altre particelle forniscono una 
prova quasi direna di una struttura in- 
terna; i campi elettrici e magnetici e il 
campo associato alla forza forte sembra- 
no tutti originare da sorgenti puntiformi 
all'interno delle particelle. Infine, vi è 
un gran numero di adroni. Se ne cono- 
scono più di 100, la maggior parte dei 
quali con vite medie brevissime, e vi 
sono buone ragioni per credere che ne 
esistano molti altri che non sono stati 
ancora osservati solo perché gli accelera- 
tori di particelle di cui disponiamo oggi 
non sono in grado di fornire l'energia 
necessaria per produrli. 

È stata la grande varietà di adroni esi- 
stenti che ha condotto alla formulazione 
del modello a quark. Senza un principio 
ordinatore un insieme cosi numeroso di 
particelle sembrava di difficile sistema- 
zione e non era possibile considerarle 
tutte elementari senza deludere le aspet- 
tative di quanti avevano la convinzione, 
o almeno speravano profondamente, che 
la natura fosse semplice. L'ipotesi dei 
quark sostituì alla grande varietà di a- 
droni solo ire «mattoni» fondamentali 
con i quali sì potevano costruire tutti gli 
adroni. Essa venne proposta indipenden- 
temente nel 1963 da Murray Geli-Mann e 
da George Zweig, entrambi del Califor- 
nia Insti tu te of Technology. 

A ispirare improvvisamente l'ipotesi 
dei quark era stata la scoperta, fatta da 



30 



Geli-Mann e da YuvalNe'eman dell'Uni- 
versità di Tel Aviv, che tutti gli adroni 
possono essere raggruppali in modo si- 
stematico in famiglie di pochi membri 
ciascuna. 1 mesoni formano famiglie di 
una e di otto particelle; i barioni forma- 
no famiglie di una, otto e 10 particelle. 

La classificazione delle particelle è re- 
sa più facile tabulando le loro proprietà 
in forma numerica. Ogni numero si rife- 
risce a una sola proprietà e può assumere 
soltanto certi valori discreti. Poiché i 
numeri vengono assegnati in unità di- 
screte, o quanti, essi vengono detti nu- 
meri quantici. Un elenco completo dei 
numeri quantici di una particella la iden- 
tifica in modo univoco e ne definisce il 
comportamento. 

La carica elettrica è un tipico numero 
quantico. L'unità dì misura fondamen- 
tale è la carica elettrica de! protone o 
dell 'elettrone e usando tale unità le cari- 
che di tutte le particelle osservate posso- 
no essere espresse da numeri interi sem- 
plici (come 0, + I e —I). Un altro nume- 



ro quantico è detto numero barionico: ai 
barioni si assegna arbitrariamente un va- 
lore + 1 e agli antibarioni un valore — 1 . 
I mesoni hanno numero barionico 0. An- 
che la stranezza, la proprietà degli adro- 
ni introdotta negli anni cinquanta per 
spiegare le vite medie stranamente lun- 
ghe di alcune particelle pesanti, viene in- 
terpretata da un numero quantico che ha 
solo valori interi. 

Uno dei numeri quantici più importan- 
ti è il momento angolare intrinseco 
o spin. Secondo le regole della meccani- 
ca quantistica lo stato di rotazione di 
una particella è una delle sue proprietà 
specifiche perciò la particella deve sem- 
pre avere momento angolare intrinseco 
ben determinato e invariante. (11 momen- 
to angolare intrinseco si misura in unità 
della costante di Planck divisa per 2tt, 
dove la costante di Planck è pari a 6,6 X 
IO" 3 * joule.) Una distinzione fondamen- 
tale è quella che separa le particelle i cui 
spin hanno valori semidispari (come 1/2 



o 3/2) da quelle i cui spin hanno valori 
interi (come 0, 1 e 2). Come vedremo, 
questa distinzione determina il compor- 
tamento delle particelle quando vengono 
messe assieme in un sistema legato, ma 
per ora è sufficiente tener presente che 
tutti i barioni hanno spin semidispari e 
tutti i mesoni spin interi. 

Le famiglie di adroni definite da Ge!l- 
-Mann e da Ne'eman sono correlate dal- 
lo spin. Tutti i componenti di una fami- 
glia hanno lo stesso spin. All'interno 
delle famiglie i componenti si distinguo- 
no l'uno dall'altro per altri due numeri 
quantici: lo spin isotopico e l'ipercarica. 
Nonostante il nome, lo spin isotopico 
non ha nulla a che fare con il momento 
angolare, ma è determinato dal numero 
di particelle comprese in un dato grup- 
po. L'ipercarica è determinata dalle cari- 
che elettriche di tali particelle ed è anche 
collegata sia al numero barionico sia alta 
stranezza. Dalle varie combinazioni pos- 
sibili dei valori che questi due numeri 
quantici possono assumere è possibile 



PARTICELLA DI PROVA 
10' ELETTRONVOLT 



• ELETTRONE 



PARTICELLA 01 PROVA 



10' ELETTRONVOLT 



PARTICELLA DI PROVA 



10" ELETTRONVOLT 




NUCLEO 



NUCLEONE 



NUCLEONE 



NUCLEONE 



NUCLEONE 



ALTRE PARTICELLE ORDINARIE 



la slrultura della materia è Mata esplorata su scala sempre più fine 
con un processi» di decomposizione violenta. L'atomo può essere 
ridollo ai suoi componenti colpendolo con un proiettile di energia 
relativamente bassa: qualche cieli ron volt. Questo è il processo chia- 
malo ionizzazione e nel caso limite si traduce nell'isolamento di pochi 
elellroni e di un nucleo. Anche il nucleo può essere frantumalo, ma è 
necessaria una maggiore energia. Il nucleo si scinde in proioni e 
m ni rimi liberi, chiamati collellivamenle nucleoni. A loro volla i 



nucleoni pare siano composti da enlità puntiformi chiamate quark e 
si è pensalo che i quark potessero essere liberali bombardando un 
nucleone con una parliceli a di prova di sufficiente energia. Tuttavia, 
quando si tenta un esperimento di questo tipo, non si osservano quark 
liberi, nemmeno alle più atte energie oggi raggiungibili. Vengono in- 
vece prodotte altre particelle ordinarie, tra cui molte di quelle che si 
pensano costituite da quark. Una possibile spiegazione di questo fatto 
è che i quark siano permanentemente confinali all'interno del nucleone. 



31 



costruire uno schema per ogni famiglia 
di adroni. Questi schemi, che hanno nei 
vari casi, uno, otto o 10 elementi, giusti- 
ficano l'esistenza dì tutti gli adroni co- 
nosciuti e di nessun altro. La formazione 
dì questi schemi può essere descritta for- 
malmente da un ramo della matematica 
chiamato teoria dei gruppi. Gli schemi 
sono detti rappresentazioni del gruppo di 
simmetria SU(3), che sta a indicare un 
particolare gruppo unitario di matrici di 
3x3. 

Anche i quark vengono descritti da un 
gruppo di simmetria SU(3). Geli-Mann 
designò i quark con sigle arbitrarie u, d 
ed s, che stanno per up (su), down (giù) e 
sìdeways (trasversale). Essi hanno tutti 
lo stesso spin, 1/2 unità, e nel gruppo SU 
(3) formano una famiglia a parte; è, natu- 
ralmente, una famiglia a tre componenti. 
1 tre membri della famiglia dei quark 
sono caratterizzati da differenti valori 
dello spin isotopico e dell' ipercarica e 
differiscono anche per altri numeri quan- 
tici. Le cariche elettriche assegnate a essi 
sono particolarmente insolite. Il quark « 
ha carica +2/3, mentre i quark d ed i 
hanno carica — 1/3. Anche i numeri ba- 
rionici dei quark sono frazionari: tutti i 
quark hanno numero barionico +1/3. 
La stranezza, invece, rimane un numero 
quantico intero: i quark u e d hanno 
stranezza nulla, mentre il quark s ha 
stranezza — 1. Per i corrispondenti anti- 
quark, indicati da u, S ed s, ciascuno di 
questi numeri quantici ha Io stesso valo- 
re numerico, e segno opposto. 

La regola fondamentale per la costru- 
zione degli adroni con i quark è incredi- 
bilmente semplice: essa afferma che tutti 
i numeri quantici dell'adrone si trovano 
sommando i numeri quantici dei quark 
che li costituiscono. Il protone, per e- 
sempio, è fatto di due quark u e di un 
quark d, configurazione che si scrive uud. 
Le cariche elettriche sono perciò 2/3 + 
2/3 -* !/3, con totale +1. Il numero 
barionico è 1/3 + 1/3 + 1/3, cioè +1; 
inoltre, essendo nulla la stranezza dì tutti 



questi quark, è nulla anche quella totale. 
Tutte le somme danno risultati in accor- 
do con le proprietà rilevate del protone. 

11 mesone pi carico positivamente è 
fatto da un quark » e da un antiquark d. 
Le cariche elettriche dei quark sono 
+ 2/3 e +1/3, con totale di +1, e i 
numeri barionici sono +1/3 e — 1/3, 
con numero barionico totale zero, come 
richiesto dai mesoni. La stranezza è an- 
cora nulla. Il numero quantico del mo- 
mento angolare di spin richiede un calco- 
lo lievemente più elaborato, perché gli 
spin dei quark possono essere orientati 
in due modi e il loro allineamento deter- 
mina ì segni che sì devono dare ai numeri 
quantici di spin quando vengono som- 
mati. Tuttavia, in tutti i casi possibili le 
combinazioni dì tre quark e di tre anti- 
quark (barioni e antibarioni) devono ave- 
re spin semidispari, mentre le combina- 
zioni di un quark e di un antiquark 
(mesoni) devono avere spin intero. 

La principale forza del modello a 
quark è che attraverso questo semplice 
processo additivo il modello prevede e- 
sattamente tutti i numeri quantici degli 
adroni conosciuti. In particolare va sot- 
tolineato che qualsiasi combinazione di 
quark permessa porta a valori interi del- 
la carica elettrica e del numero bario- 
nico, mentre ciò non accade per tutte le 
altre combinazioni (eccettuato il caso ba- 
nale di multipli delle combinazioni per- 
messe). Inoltre tutti gli adroni noti pos- 
sono essere ricavati da tre quark o da un 
quark- e un antiquark. 

Negli ultimi anni è parsa molto proba- 
bile l'esistenza di una quarta specie di 
quark, caratterizzata da un nuovo nume- 
ro quantico alquanto simile alla stranez- 
za e al quale è stato imposto il nome ar- 
bitrario di incanto (charm). Il nuovo 
quark (indicato col simbolo e) aggiunge 
un'altra dimensione al gruppo di simme- 
tria che descrive gli adroni e prevede 
l'esistenza di una moltitudine di nuove 
particelle, alcune delle quali possono es- 
sere già state scoperte. L'aggiunta del- 



SPIN |J) 



CARICA NUMERO 

ELETTRICA (Q> BARIONICO(B) STRANEZZA(S) INCANTO (C) 



U(SU) 


Vz 


+% 


te 








ri i Gì Ih 


v 8 


-'■3 


te 








S(STFANO) 


te 


-te 


te 


- 1 





C (INCANTATO) 


te 


• •.I 


te 





. 1 



u(su) 


te 


-Vi 


-te 








3<GiÙ> 


te 


+ V3 


-Vi 








S(STRANO) 


Vi 


+Vì 


-te 


+ 1 





e (INCANTATO) 


te 


-% 


-Vi 





-1 



Le proprietà dei quark si spiegano assegnando a essi dei numeri quantici, che possono assumere 
soliamo certi valori discreti. Nel primo modello a quark c'erano Ire lipi di quark, indicati con i 
simboli u e d, per up (su) e down (giù), e s, per sìdeways (trasversale) o strange (strano). 
Vi è ora evidenza di una quarta specie di quark, indicala eoi simbolo e, per charm (incanto). 
I quark hanno carica elettrica frazionaria e valori frazionari del numero barionico, un 
numero quantico che distingue due gruppi di particelle. Lo spin rappresenta il momento 
angolare intrinseco dei quark; la stranezza e l'incanto individuano particolari proprietà dei 
quark s e e rispettivamente. Per ogni quark vi è un antiquark con numeri quantici opposti. 



l'incanto al modello a quark, che appare 
sempre più giustificata dall'esperienza, 
presenta alcuni aspetti interessanti e si 
può dire che dia maggior vigore al mo- 
dello, ma ha scarsi effetti sul problema 
del confinamento dei quark. 

Sotto molti aspetti i quark sono come 
i leptoni. Entrambi i lipi di particelle 
si possono rappresentare come punti ma- 
teriali e, se sono senza dimensioni, sono 
anche presumibilmente privi di struttura 
interna. Tutti i quark e tutti i leptoni 
hanno in comune la proprietà di avere 
spin 1/2. Infine, se l'ipotesi dell'incanto 
è corretta, vi sono quattro membri per 
ogni gruppo: in effetti è stato proprio 
questo richiamo alla simmetria uno dei 
principali motivi per introdurre il con- 
cetto di incanto. 

La somiglianza tra quark e leptoni 
non è superficiale, tuttavia vi sono im- 
portanti differenze tra questi due tipi di 
particelle fondamentali. In primo luogo i 
quark a differenza dei leptoni subiscono 
le interazioni forti. Inoltre i quark for- 
mano aggregati di particelle (gli adroni), 
mentre non esistono analoghe strutture 
composte fatte da leptoni. Perché i quark 
formano soltanto certi aggregati ben de- 
finiti, quelli fatti con tre quark o quelli 
fatti con un quark e un antiquark? Si 
può pensare a molte altre combinazioni 
ma non vi sono prove che qualcuna di 
esse esista. Uno stato particolarmente 
interessante è quello rappresentato da un 
singolo quark. I leptoni isolali sono un 
fatto normale; quale caratteristica pro- 
prietà dei quark impedisce loro di appa- 
rire da soli? 

II concetto che ha fornito le prime 
risposte ipotetiche a queste domande è 
stato introdotto allo scopo di correggere 
un evidente difetto nella teoria dei quark. 
Tale difetto riguarda un'evidente con- 
traddizione tra il comportamento dei 
quark e di uno dei loro numeri quantici, 
lo spin. L'attribuzione di spin 1/2 a tutti 
i quark è indispensabile se devono essere 
predetti correttamente gli spin degli a- 
d roni. Tuttavìa, la meccanica quantistica 
enuncia le regole per il comportamento 
di particelle con spin semidispari e i quark 
pare non le seguano. 

Le regole quantomeccaniche postula- 
no una correlazione tra lo spin di una 
particella e la sua «statistica», cioè l'in- 
sieme delle regole che stabilisce il nume- 
ro di particelle identiche che può occu- 
pare un dato stato. Le particelle con spin 
intero sì dice che seguono la statistica di 
Bose-Einstein, che consente a un numero 
illimitato di particelle di occupare insie- 
me uno stato. Le particelle con spin se- 
midispari seguono la statistica dì I-unni- 
-Dirac, che richiede che due particelle 
identiche non possono trovarsi in uno 
stesso stato. È questo il principio di e- 
sclusione formulato da Wolfgang Paulì, 
ovvero l'equivalente quantomeccanico 
della nozione intuitiva che due oggetti 
non possono essere nello stesso posto 
nello stesso istante. 

Il campo più comune di applicazione 
della statistica di Fermi-Dirac e del rela- 



tivo principio di esclusione è la fisica 
atomica, dove tale statistica regola il mo- 
do in cui gli elettroni (che, essendo lep- 
toni, hanno spin 1/2) riempiono gli orbi- 
tali, o livelli energetici, attorno al nu- 
cleo. Se un orbi (ale contiene un elettro- 
ne, se ne può aggiungere ancora uno, 
purché il suo spin sia allineato con dire- 
zione opposta a quello del primo elettro- 
ne. Essendo gli spin opposti, gli elettroni 
non hanno numeri q uà n liei identici e 
possono quindi occupare Io stesso stato, 
in questo caso un orbitale atomico. Daio 
che vi sono però solo due direzioni per lo 
spin, tutti gli altri elettroni sono per- 
manentemente esclusi dall'orbitale. 

La correlazione tra spin e statistica 
non è ben chiara dal punto di vista teori- 
co, ma non è posta in dubbio. Infatti 
sono state presentate dimostrazioni for- 
mali che il principio di esclusione deve 
essere seguito senza eccezione alcuna da 
tutte le particelle con spin semidispari. 
Come gli eleitroni, anche i quark si muo- 
vono su orbitali, anche se il loro moto 
non viene misuralo rispetto a un nucleo 
ma uno rispetto all'altro o rispetto al 
loro centro di massa comune. Per le 
famiglie di adroni meno pesanti tutti i 
quark dovrebbero essere nello stesso or- 
bitale: il più pìccolo. Ne consegue che in 
un adrone non vi possono essere due 
quark con gli stessi numeri quantici. 

Nel modello a quark del mesone le 
condizioni della statistica di Fermi-Dirac 
si possono realizzare immediatamente. 
Le due particelle che compongono un 
mesone sono un quark e un antiquark e i 
loro numeri quantici sono perciò diffe- 
renti (in alcuni casi sono esattamente 
opposti). Nel barione, invece, lo spin e la 
statistica hanno esigenze contrastanti. In 
almeno tre barioni (uuu, ddd ed sss) tutti 
e tre i quark hanno numeri quantici i- 
dentici. Poiché in un barione vi sono tre 
particelle, almeno due di esse devono 
avere spin allineati nello stesso modo e 
in molti casi tutti e ire gli spin hanno la 
stessa direzione. Il principio di esclusio- 
ne sembra venga violato. 

Un modo per evitare questa sconfor- 
tante conclusione fu proposto per la pri- 
ma volta da O.W. Greenberg dell'Uni- 
versità del Maryland. Greenberg avanzò 
l'ipotesi che i quark non seguissero la 
statistica di Fermi-Dirac, ma fossero in- 
vece governati da un insieme di regole 
non convenzionali che egli chiamò stati- 
stica para- Fermi di ordine 3. Mentre nel- 
la siatistica di Fermi-Dirac uno stato può 
essere occupato solo da una particella, in 
quella para-Fermi può essere occupato 
da tre particelle, ma non di più. 

Un diverso approccio al problema ven- 
ne suggerito in seguito da M.Y. Han 
della Duke University e da me e, indi- 
pendentemente, da A. Tavkhelidze degli 
Istituti riuniti per la ricerca nucleare in 
URSS e da Y. Mìyamoto della Tokyo 
University of Educaiion. Invece di modi- 
ficare le regole noi abbiamo modificato i 
quark. Assegnando a ogni quark un nu- 
mero quantico supplementare con tre 
possibili valori è possibile sistemare le 
cose in modo che tutti i quark di un 



ROSSO 



COLORI DEI QUARK 
VERDE 



BLU 



Q - **» 


Q = H4 


- - j ì 


B = -te 


B = -te 


B = -t-Vj 


Q=0 


Q= +1 


Q= +1 


B =0 


B = 


B = -1 


Q = -te 


O = - Vi 


Q= -te 


B = +te 


B = +te 


B - -t-te 


Q- -1 


O = 


= 


B =0 


B =0 


B = -1 


Q = -te 


Q = -te 


Q = -te 


B = -te 


B = -te 


B = -t-te 


Q - -1 


= 


0=0 


B =0 


B =0 


B - -1 


Q - -&j 


O - - '-3 


=. -ii 


B = -te 


B - -te 


B - -te 


0=0 


Q= +1 


0=4-1 


B -0 


B « 


B = - 1 



U(SU) 



£ d(GIÙ) 



(E 

2 

< S(STRAN0| 



e (INCANTATO) 



Un ulteriore numero quantico dei quark è chiamato colore e può assumere tre possibili valori 
rappresentati qui dai Ire colorì fondamentali rosso, verde e blu. Per contrasto al colore, le 
designa/ioni originali dei quark u. d. $ e e sono talvolta chiamale sapori dei quark. (Sia rolore 
Che sapore sono termini arbitrari.) Si suppone che ciascuno dei sapori dei quark possa esistere in 
ciascuno dei Ire colori. In un modello (riquadri bianchi) i quark rossi, verdi e blu di un dato 
sapore sono indistinguibili; essi hanno gli stessi valori della carica elettrica (Q\, del numero 
barionico (fl) e di lutti gli altri numeri quantici. In una teoria alternativa (riquadri grigi) 
proposta dall'autore e da M.-Y. Han. i quark di colore differente hanno cariche elettriche e 
numeri barionici differenti e a questi numeri quantici si possono dare valori interi, ti modello 
Han-Nambu non può essere scartato con certezza, ma qui vengono assunte cariche frazionarie. 



barione siano di specie diversa e quindi 
in differenti stati quantomeccanici. Tut- 
to ciò che serve è un meccanismo che as- 
sicuri che in tutti i casi ciascun quark 
abbia un differente valore del nuovo nu- 
mero quantico. Questo numero quantico 
supplementare è oggi conosciuto come 
«colore». Per i ire valori del numero 
quantico è comodo adottare i tre colori 
fondamentali rosso, verde e blu; gli ami- 
quark hanno anticolori, che si possono 
rappresentare con i colori complementari 
di quelli fondamentali, rispettivamente 
azzurro, porpora e giallo. 

La statistica para-Fermi può essere 
considerata come un caso particolare del- 
l'ipotesi del colore. Le due teorie sono 
equivalenti se si fa l'ipotesi che il colore 
sia completamente invisibile. In tal caso i 
quark con differenti colori appariranno 
identici in tutte le loro proprietà e, non 
essendovi modo di distinguerli uno dal- 
l'altro, sembrerà che quark identici se- 
guano una statistica non convenzionale, 
li colore dovrebbe essere invisibile o, per 
dirlo in altri termini, la natura dovrebbe 
essere cieca al colore. L'ipotesi del colo- 
re ammette, comunque, che il colore pos- 
sa diventare visibile sotto determinate 
condizioni. 

L'introduzione del colore triplica ne- 
cessariamente il numero dei quark. Se si 
considerano solo i tre quark originali, 
con il colore essi diventano nove; se si 
include il quark incantato, anch'esso de- 
ve avere le varietà rossa, verde e blu, e il 
numero totale di quark sale a 12. Il nu- 
mero di adroni, però, non aumenta; l'i- 
potesi del colore non prevede nessuna 
nuova particella. 11 numero degli adroni 



resta invariato per il particolare modo in 
cui vengono attribuiti i colori dei quark 
in un adrone. Se i colori devono risolve- 
re il problema della statistica dei quark, 
è essenziale che un barione contenga un 
quark di ogni colore; se un barione po- 
tesse essere formato da tre quark rossi, 
per esempio, allora i numeri quantici di 
tutti i quark dovrebbero essere gli stessi. 
Soltanto se tutti e tre ì colori sono ugual- 
mente rappresentati può essere garantita 
l'osservanza del principio di esclusione. 
Dal momento che abbiamo assegnato ai 
quark i colori fondamentali, una tale 
combinazione potrebbe essere chiamata 
bianca, o incolore. Come vedremo, la 
teoria implica che tutti gli adroni, sia 
barioni sia mesoni, siano incolori. I ba- 
rioni sono formati da rosso, verde e blu 
in ugual misura; i mesoni sono miscugli 
identici di ogni colore con ti proprio 
anticolore. 

La trattazione formale dei colori dei 
quark richiede di postulare un altro grup- 
po di simmetria SU(3), del tutto identico 
a quello che determina le altre proprietà 
dei quark . I due numeri quantici che de- 
terminano i colori dei quark sono detti, 
per analogia con il gruppo SU(3) origi- 
nale, spin isotopico di colore e ipercarica 
di colore. Le proprietà determinate dalla 
simmetria SU(3) originale sono talvolta 
chiamate «saporì» dei quark, e il sapore, 
diversamente dal colore, si può rivelare 
facilmente negli esperimenti; è come se si 
potesse assaggiare. 1 simboli u, d, s e e 
rappresentano i sapori dei quark e deter- 
minano tutte le proprietà osservabili, tra 
le quali la carica elettrica, degli adroni 
che essi costituiscono. La simmetria tra i 



32 



33 



sapori non è perfetta e i quark di diffe- 
rente sapore hanno masse lievemente dif- 
ferenti. Invece il colore è una simmetria 
esatta; nella comune formulazione della 
teoria un quark di un dato sapore ha le 
stesse proprietà e la stessa massa indi- 
pendentemente dal colore. 

Il colore è stato introdotto nella teoria 
dei quark come una ipotesi ad hoc 
per risolvere il problema della statistica 



dei quark e da allora è diventato un 
aspetto fondamentale del modello. In 
particolare si pensa di determinare le 
forze che tengono assieme i quark all'in- 
terno di un adrone e che hanno quindi 
una profonda influenza sul confinamen- 
to dei quark. In questo contesto la di- 
stinzione qualitativa tra i quark e i lep- 
toni comincia a essere comprensibile. Un 
elemento importante nella distinzione è 
che i leptoni non formano stati forte- 



PROPRIETÀ 


QUARK COSTITUENTI 

LI U 


d 


ADRONI 
PROTONE |p) 


SPIN (J) 


{%,%) * {ViM + 


(Vi.-V;) 


(Vz.Vi) 


CARICA ELETTRICA IO) 


% % 


Vi 


+ 1 


NUMERO BARIONICO (Bl 


V) + Vi + 


Vi 


+ 1 


STRANEZZA (S) 


+ + 








INCANTO (C) 


+ + 





□ 





u 




a 




PIONE (tt') 


SPIN (J) 


(Vi.'A) 


+ 


(Vi, -Vi) 


= 


(0,0) 


CARICA ELETTRICA (Q) 


% 


f 


Vi 


= 


+ t 


NUMERO BARIONICO (B) 


Vi 


- 


Vi 


= 





STRANEZZA (S) 





+ 





« 





INCANTO (C) 





+ 





= 








U 




d 




d 


ANTINEUTP.ONE (n) 


SPIN (J) 


(Vi. -Vi) 


+ 


(Vi, Vi) 


+ 


(Vi, Vi) = 


(Vi.Vi) 


CARICA ELETTRICA (Q) 


-% 


+ 


Vi 


+ 


Va 





NUMERO BARIONICO (B) 


-Vi 




Vi 


- 


Va 


-1 


STRANEZZA (S) 





+ 





+ 








INCANTO (C) 





+ 





+ 











LI 




d 




s 


LAMBDA (A°) 


SPIN (J) 


(Vi, Vi) 


+ 


(Vi, -Vi) 


+ 


(Vi.Vi) - 


(Vi, Vi) 


CARICA ELETTRICA (Q) 


Vi 


- 


Vi 


- 


Va 





NUMERO BARIONICO (B) 


Vi 


+ 


Vi 


+ 


Va 


+ 1 


STRANEZZA (S) 





+ 





- 


1 


-t 


INCANTO (C) 





-+ 





+ 











e 




u 


MESONE INCANTATO (D*) 


SPIN (J) 


(Vs.Vi) 


+ 


(Vi, -Vi) 


(CO) 


CARICA ELETTRICA (Ql 


% 


- 


Vi 





NUMERO BARIONICO (B) 


Vi 


- 


Vi 





STRANEZZA (S) 





4 


D 





INCANTO (C) 


1 


+ 





+ 1 



I quark si (.(inibirla no per costituire la classe di particelle osservale chiamate adroni. Sono possi- 
bili due modi di combinazione dei quark. In uno di essi Ire quark si legano assieme per formare 
un barione (come il proione) o tre antiquark, per Formare un anlibarione (come l'anlineulrone). 
Nell'altro lipo di legame tra i quark, un quark e un anliquark l'ormano un mesone (come il 
pione). Le proprietà di qtiesli adroni vengono determinate con la semplice regola che i numeri 
quantici degli adroni sono le somme dei numeri quantici dei quark. Tutte le combinazioni di 
quark permesse danno valori interi della carica elettrica. 1 numeri h aritmici si sommano in modo 
tale che lutti i barioni hanno un valore + 1, gli anlibarioni — 1 e i mesoni 0, li- particelle strane, 
come il barione lambda, sono quelle che contengono almeno un quark s; le particelle incantate 
hanno almeno un quark e. Il numero quantico di spin è un vettore e richiede un'aritmetica più 
complessa, ma il risultalo della somma è che lutti i barioni e gli antibarioni hanno spin 
semidisparì, mentre tutti i mesoni hanno spin intero. Il grande successo della teoria dei quark 
consiste nel fatto che tulle le io ni binazioni permesse portano ad adroni conosciuti, mentre ciò 
non accade per tutte le altre combinazioni. Resta tuttavìa il problema di spiegare perché 
dovrebbero esistere soltanto queste combinazioni e perché non vengono osservali quark isolati. 



mente legati. Se il numero quantico dì 
colore è responsabile del legame tra i 
quark, allora si può capire immediata- 
mente l'assenza di legami forti tra i lep- 
toni, poiché i leptoni non hanno colore. 
Per poter comprendere le forze tra i 
quark è utile considerare dapprima una 
forza più familiare: l'elettromagnetismo. 
La forza elettromagnetica è descritta dal- 
la legge di Coulomb, che afferma che la 
forza tra due corpi carichi diminuisce 
con il quadrato della loro distanza. Si 
può pensare che la forza venga trasmessa 
da un campo o da particelle discrete: i 
fotoni, i quanti del campo elettromagne- 
tico. In ultima analisi sia il campo sia la 
forza originano dalle cariche elettriche 
delle particelle; dato che queste cariche 
sono di segno opposto, la forza è at- 
trattiva. 

Le forze tra i quark sono sotto molti 
aspetti simili, ma sono alquanto più 
complicate. Nel caso del campo elettro- 
magnetico soltanto un numero quantico, 
la carica elettrica, è responsabile della 
produzione del campo; i campi tra ì 
quark sono invece prodotti da due nu- 
meri quantici: lo spin isotopico di colore 
e l'ipercarica di colore. Per analogia con 
l'elettromagnetismo, questi numeri quan- 
tici possono considerarsi due varietà di 
«carica di colore». 

Se una combinazione di quark deve 
essere stabile, è evidente che le forze tra 
essi devono essere attrattive e ciò si può 
ottenere imponendo che i quark in un 
barione, per esempio, siano tutti di di- 
verso colore, dato che i quark in que- 
sto modo avrebbero valori differenti dei 
due tipi di carica di colore. Un quark 
rosso e un quark verde saranno legati 
assieme perché i loro numeri di spin iso- 
topico di colore sono di segno opposto; 
il quark blu potrà legarsi a entrambi gli 
altri per la differenza tra i segni del nu- 
mero quantico ipercarica di colore. Un 
meccanismo dello stesso tipo produce 
una forza attrattiva tra un quark di un 
colore e un antiquark del corrispondente 
anticolore, come in un mesone. Le forze 
favoriscono proprio quelle combinazioni 
che sono state identificate come bianche 
o incolori. 

In pratica la situazione è ancora più 
complessa. Mentre la forza elettromagne- 
tica viene trasmessa da un solo tipo di 
particella, il fotone, la forza associata ai 
colori dei quark richiede otto campi e 
otto particelle intermediarie. Queste par- 
ticelle sono state chiamate gluoni perché 
esse incollano iglue) i quark. Come il 
fotone sono privi di massa e hanno spin 
1; e come gli stessi quark non sono anco- 
ra stati rivelati come particelle libere. Gli 
otto gluoni si possono pensare di colori 
composti, ottenuti con le varie combina- 
zioni di tre colori e di tre anticolorì. Tali 
combinazioni sono complessivamente 
nove, ma a una di esse contribuiscono 
nello stesso modo il rosso combinato con 
Tantirosso, il verde con l'antiverde e il 
blu con l'antiblu. Essendo tale combina- 
zione in pratica incolore, sì tratta di un 
caso banale che viene scartato, lasciando 
otto gluoni colorati. 



I quark interagiscono scambiandosi 
gluoni; quando ciò accade, essi possono 
mutare colore ma non sapore. Un bario- 
ne contiene sempre quark rossi, verdi e 
blu, ma, dato che i gluoni si scambiano 
continuamente, non è possibile dire di 
quale colore sia un dato quark in un 
istante qualsiasi. Nello stesso modo, un 
mesone è sempre formato da un quark dì 
un colore e da un antiquark delFantico- 
lore complementare, ma vi sono ugual- 
mente rappresentate le tre possibili com- 
binazioni di colore e di anticolore. Nella 
meccanica quantistica non possiamo ave- 
re alcuna conoscenza sicura del colore 
dei quark, ma possiamo solo conoscere 
la probabilità che un quark sia di un 
dato colore. Se tutti gli adroni sono in- 
colori, le probabilità dei tre colori sono 
uguali. 

Al modello degli adroni secondo il 
quale queste particelle sono composte di 
quark tenuti assieme dallo scambio di 
gluoni può esser data un'elegante formu- 
lazione matematica. Il modello è un e- 
sempio di una teoria di gauge non abe- 
liana, un tipo di teoria inventata da C.N. 
Yang della State University di New York 
a Stony Brook e da Robert L. Mills del- 
la State University dell'Ohio. Una teoria 
di gauge è una teoria modellata sulla 
teoria dell'elettromagnetismo sviluppata 
da James Clerk Maxwell. Una caratte- 
ristica di tali teorie è che qualsiasi par- 
ticella che trasporta un numero quan- 
tico, o carica, genera un campo a lungo 
raggio d'azione la cui intensità è propor- 
zionale al numero quantico. Nella teoria 
di Maxwell il numero quantico in que- 
stione è la carica elettrica; nel modello 
della struttura degli adroni vi sono due 
di tali numeri quantici, quelli associati ai 
colori dei quark. 

La teoria di Maxwell è una teoria di 
gauge abeliana; le teorìe dì gauge non 
abeliane si distinguono da essa per il 
fatto che i campi stessi trasportano i 
numeri quantici. Un campo può perciò 
comportarsi come sorgente di se stesso. 
L'elettromagnetismo e la forza debole, 
che è responsabile di certi tipi di decadi- 
mento radioattivo, sono stati recente- 
mente fusi in un'altra teoria di gauge 
non abeliana da Steven Weinberg della 
Harvard University e da Abdus Salam 
del Centro internazionale di fisica teo- 
rica di Trieste. Il modello a quark colo- 
rati ci potrebbe ora fornire uno schema 
dello stesso tipo per comprendere la for- 
za forte. Queste quattro forze - forte, 
debole, elettromagnetica e gravitazionale 
- sono le sole forze note in natura. Sa- 
rebbe una grande soddisfazione di carat- 
tere estetico poterle spiegare tutte con lo 
stesso lipo di teoria. 

TJ rima di descrivere schemi che spieghi- 
ci no il confinamento dei quark sarebbe 
bene considerare la possibilità che essi 
non siano affatto confinati. Forse ci so- 
no sempre stati ma non siamo stati ca- 
paci di rivelarne la presenza o forse li 
abbiamo confusi con qualche particella 
ordinaria. Se un quark con carica frazio- 
naria potesse sfuggire da un adrone, sa- 



SAPORI DEI QUARK 

-| *1 IPERCARICA (Y) 



- +% 



• d 



- +Vj 



SAPORI DEGLI ANTIQUARK 

-1 IPERCARICA (Y) 



• 



- +Va 



SPIN 
ISOTOPICO (I) 



-1 



- -Vi 
-% 
-1 



-Vi 



SPIN 1 
ISOTOPICO (I) 



■'.. 



» d 



+1 



- -% 



1 





COLORI DEI QUARK 

-, -1 IPERCARICA 

DI COLORE (Y c ) 




B 41 -*à 






-Vi 

ISOTOPI! 
COLOR 


t 


-» 


+ Vi +1 




• G 


+v 3 » r 






+% 






^1 



COLORI DEGLI ANTIQUARK 

1 IPERCARICA 

01 COLORE (Y C ) 



SPIN 



-1 



Vi 



2 3 



' S SPIN 

ISOTOPICO DI 

COLORE (l c ) 



i-Vi 



+1 



+Va 



B - +*S 



-I +1 

I.a classificazione dei quark è regolala da una fondamentale simmetria della natura. I saporì dei 
quark sono determinali da due numeri quantici, lo spin isotopico e l'ipercarica; ogni quark a 
anliquark rappresenta Tunica combinazione di questi numeri. 11 colore é determinalo da altri 
due numeri quantici che sono chiamati per analogia spin isotopico dì colore e ipercarica di colo- 
re. Tanto il sapore quanto il colore possono esser descritti mediante il concetto di gruppo di 
simmetria. Il sapore è una «simmetria spezzata», perché quark che hanno sapori differenti dit- 
reriscono rispetto a proprietà quali la massa e la carica elettrica. 11 colore è una simmetria esalta: 
infatti due quark che hanno il medesimo sapore, ma dotali di differenti colori, differiscono solo 
rispetto ai colori e sono indistinguibili per tutte le altre proprietà. Si ritiene che i colori dei quark 
generino forze che legano assieme i quark. Queste forze derivano da due tipi di campo, detto 
anche carica di colore, associati ai numeri quantici spin isotopico di colore e ipercarica di colore. 



ROSSO(R) VERDE(G) BLU (B) 



ANTIROSSO (R) 



ANTIVERDE (G> 



ANTIBLU (B) 



RR 


GR 


BR 










> 


RG 


GG 


BG 






^ 


RB 


GB 


BB 


-^ 




^ 



(vTV RR * GG + BB 

(TRIVIALE) 
(\ 2 ) RR - GG 

(\~°rr) RR + GG " 2BB 



' 



I gluoni colorati sono le particelle che trasmettono le forze ira i quark colorali; essi sono ì 
quanti dei campi generali dai numeri quantici di colore proprio come il fotone é il quanto del 
campo elettromagnetico. 1 gluoni possono esser considerati come combinazioni di colore e 
anticolore: sei di tali combinazioni {caselle bianche) sono evidenti, ma tre richiedono un Iratla- 
menlo particolare (caselle grige). Queste tre riguardano combinazioni di un singolo colore con il 
corrispondente aniicolore e in ogni combinazione tinti i numeri quantici sì neutralizzano. Si 
possono ottenere a volontà stali con numeri quantici nulli, ma soltanto tre di tali combinazioni 
di combinazioni devono essere prese in considerazione. Una è RR + GG + BB, nella quale i 
numeri quantici sono ancora nulli: il caso è banale e può essere trascurato. Le altre due 
combinazioni sono costituite RR — GGeRR - GG + 2BB che possono esser trattate esattamente 
come gii altri sci gluoni a parte il fatto che è necessario introdurre dei fattori numerici di correzione. 



34 



35 



COLORI DEI QUARK (BARIONI) 



ANTICOLOHI DEGLI ANTIQUARK (ANTIBARIONI] 




Gli adroni incalorì sono formali combinando opportunamente ■ quark 
colorali. Un barione è fatto da tre quark, uno rosso, uno verde e uno 
blu. (I quark possono avere qualsiasi sapore e i loro sapori determina- 
no tutte le proprietà osservabili della particella.) Nello stesso modo, 
un antibarione è costituito da tre anliquark dotati di ciascuno dei tre 
anticolori. Gli anlìcolori appaiono qui eume complementi dei corri- 
spondenli colori fondamentali. Nei mesoni i colori e gli anlicolori so- 
no ugualmente rap presentali, in ognuna di tali combina/toni i numeri 



quantici totali di colore sono nulli; in termini figurativi gli adroni 
sono bianchi o incolori. Nessun'altra Ira le combinazioni di colori può 
condurre allo stessa risultalo. In questa modo risulta possibile spiega- 
re per quale ragione in natura esistono soltanto queste Ira le possibili 
combina/ioni di quark e perché non è consentita l'esistenza dei singoli 
quark assumendo come postulala che siano osservabili soltanto le 
particelle incolori. Il problema del confinamento dei quark viene 
quindi ridotto al problema della spiegazione di questo postulato. 



VBR 



ÀGR 



VBG 



VGB 



- 
V RB 



1 



lU -x 



(vi) 



RH + GG - 2BB 



RG 



è4") Rft - GS 



BARIONE 

INCOLORE 

(PROTONE) 



AGR VGB 



Arb 



VRG 



(vi") R \" Gg 



ABG 



VBR 



X 



fcrtìw» + àB-«Bi 

/ I MESONE 

INCOLORE 
(PIONE) 



8 







R 



R 



;] 



Lo scambio di gluoni lega assieme i quark in un adrone e al tempo 
stesso può far cambiare i loro colori. In questi diagrammi in verticale 
è riportata la distanza tra i quark e in orizzontale il tempo. In ognuno 
dei verlìci nei quali viene emesso o assorbilo un gluone i numeri 
quantici di colore devono equilibrarsi. Di conseguenza, a sinistra in 
alto, dove un quark blu emette un gluone blu-anlirosso, la «blueraa» 
del quark è portata via dal gluone e il quark diventa rosso, equilibran- 
do l'antifosso del gluone. Quando il gluone viene assorbilo, l'anlirosso 
del gluone e il rosso del quark che lo assorbe si annichilano e il quark 



resta con un colare risultante blu. 1 gluoni che sono mostrali nell'c- 
slremilà destra della figura, che hanno numeri quantici nulli, non 
Tanno cambiare i colori dei quark e nessun gluone esercita un effetto 
sui sapori dei quark. In qualsiasi istante del tempo il barione contiene 
un quark rosso, uno verde e uno blu; nel mesone il colore del quark è 
neutralizzato, in ognuno degli istanti che vengono qui indicati, dall'anti- 
colore dell'anliquark. In pratica non si possono determinare i colori dei 
quark, ma si può solo calcolare la probabilità di ciascun colore, Negli 
adroni, che sono incolori, le probabilità sono le stesse per tulli i colori. 



rebbe certamente stabile se preso da so- 
lo. Un quark potrebbe decadere per for- 
mare un altro Quark, magari insieme a 
qualche particella ordinaria, ma almeno 
una specie di quark - quello con la massa 
più piccola - deve essere stabile. Esso 
non potrebbe decadere perché tutte le 
particelle che non sono quark hanno ca- 
riche intere, che non possono essere crea- 
te nel decadimento di un quark con cari- 
ca frazionaria. 

Quark lìberi e stabili di questo tipo 
potrebbero benissimo fermarsi tra gli a- 
tomi della materia ordinaria. Nello stes- 
so modo, se essi possono sfuggire, do- 
vrebbero ritrovarsi nei prodotti delle col- 
lisioni di adroni ad alta energia, sia negli 
acceleratori di particelle sia quando i 
raggi cosmici entrano in collisione con 
gli atomi dell'atmosfera. Il principale ar- 
gomento che contrasta l'esistenza di tali 
quark liberi è che essi non sono stati tro- 
vati nella materia ordinaria, nemmeno in 
piccolissime concentrazioni, e che essi 
non sono stati osservati tra i prodotti 
delle collisioni di adroni. 

Se vi fossero dei quark con carica fra- 
zionaria, si potrebbero subito rivelare e 
riconoscere. Le particelle cariche si rive- 
lano dalla ionizzazione che esse produ- 
cono sugli atomi circostanti. L'entità del- 
la ionizzazione è proporzionale al qua- 
drato della carica elettrica della particel- 
la. Un quark con carica 1/3 produrrebbe 
quindi solo un nono della ionizzazione di 
una particella di carica 1 e potrebbe esse- 
re facilmente individuato. 

Forse, però, i quark non hanno cari- 
che frazionarie. Aggiungendo il colore 
alla teoria dei quark è possibile assegna- 
re a ogni quark valori interi sia della ca- 
rica elettrica sia del numero barionico, e 
io e Han abbiamo proposto un modello 
siffatto nel 1965. Il modello ha l'effetto 
di rendere visibile il colore, nel senso che 
quark di colori differenti possono diffe- 
rire per le masse, le cariche elettriche e i 
numeri bariontei e possono perciò essere 
riconosciuti. Per ogni sapore di quark 
tutta la carica elettrica (+1 o — 1) si po- 
trebbe assegnare a un solo colore e gli 
altri due colori avrebbero carica nulla. 
Se tutti i colori devono essere rappresen- 
tati con la stessa intensità, allora la cari- 
ca totale delPadrone risulterebbe esatta. 
Se i quark hanno cariche intere, un quark 
libero nel laboratorio non dovrebbe sem- 
brare molto diverso da un barione ordi- 
nario e si potrebbe facilmente confonde- 
re con esso. Questa possibilità non può 
ancora essere esclusa con certezza. 

Un'altra ipotesi sostiene che sia diffi- 
cile ma non impossibile estrarre i quark 
dagli adroni. Forse essi sono soltanto 
molto pesanti e gli acceleratori in funzio- 
ne oggi non sono sufficientemente po- 
tenti per liberarli. Tale ipotesi richiede 
però che la massa di un quark libero e di 
uno legato siano molto diverse. Infatti, 
un singolo quark isolato potrebbe risul- 
tare più pesante di un barione composto 
di tre quark, concetto questo difficile da 
capire, se non inconcepibile. 

La teoria del colore nella costituzione 
degli adroni prevede in modo naturale 



almeno un confinamento parziale dei 
quark. Un atomo ha la massima stabilità 
quando è elettricamente neutro, cioè 
quando ha attirato un numero dì elettro- 
ni sufficiente a compensare la carica po- 
sitiva dei nucleo. Qualunque tentativo di 
aggiungere un altro elettrone o di strap- 
parne uno di quelli già legati è infruttuo- 
so. Nello stesso modo un sistema di 
quark ha la massima stabilità quando 
sono presenti tutti e tre i colori, o un 
colore e un anticolore; in tal caso l 'adro- 
ne è neutro rispetto ai due tipi di carica 
di colore. Questo risultato non è sor- 
prendente, in quanto i numeri quantici 
di colore erano stati introdotti proprio 
allo scopo di ottenere una uguale rappre- 
sentazione dei colori nei barioni. Ne con- 
segue che, essendo un quark isolato ne- 
cessariamente una particella colorata, si 
tratta dì una configurazione energetica- 
mente sfavorevole. I quark liberi tendo- 
no ad associarsi per formare adroni in- 
colori, proprio come gli elettroni liberi e 
gli atomi ionizzati tendono a ricombi- 
narsi. Questo aspetto dei colori dei quark 
non esclude che possano esistere quark 
liberi, ma vieta rigorosamente la loro 
formazione. Esso richiede che un quark 
libero o qualsiasi stato colorato sia meno 
stabile, o più pesante, degli stati incolori . 

T I modello a quark è notevolmente cam- 
■*■ biato ed è diventato molto più elabo- 
rato dalla data della sua nascita nel 1963. 
Vi sono buone ragioni per ritenere che 
esso continuerà a evolversi ed è possibile 
che l'attuale sentita necessità di spiegare 
il confinamento dei quark possa essere 
modificata da fatti nuovi, tra i quali, per 
esempio, la scoperta di un quark libero. 
Resta il fatto che le ricerche sperimentali 
sui quark, guidate da ragionevoli ipotesi 
sulle loro proprietà, non sono riuscite a 
rivelarne la presenza. Questi risultati de- 
cisamente negativi richiedono una spie- 
gazione. Una strada potrebbe essere quel- 
la di postulare un meccanismo che confi- 
ni permanentemente i quark all'interno 
degli adroni, ìn modo tale da rendere 
non soltanto difficile ma addirittura im- 
possibile l'esistenza di quark liberi. Mol- 
te teorie possono fornire un siffatto mec- 
canismo, e alcune di esse con eccezionale 
ingegnosità. 

Una di queste idee nasce direttamente 
dalla teoria di gauge fondamentale sulle 
interazioni tra quark colorati. Ancora 
una volta il principio può essere effica- 
cemente chiarito considerando in primo 
luogo gli analoghi fenomeni osservati 
nelle interazioni elettromagnetiche della 
materia. 

La relazione dell'inverso del quadrato 
della legge di Coulomb è stata verificata 
con grande precisione a grandi distanze, 
ma non è valida quando la forza tra le 
particelle cariche, quali gli elettroni, vie- 
ne misurata a distanze estremamente bre- 
vi. La discrepanza è dovuta alla distribu- 
zione spaziale della carica dell'elettrone. 
Nel centro dell'elettrone vi è una carica 
negativa, chiamata carica nuda, di gran- 
dissima intensità, al punto da poter be- 
nissimo essere infinita. Tale carica indù- 



FISICA DELLE 
PARTICELLE 

LE SCIENZE 

edizione italiana di 
SCIENTIFIC AMERICAN 

ha finora pubblicato su questo 
argomento i seguenti artico/i: 

GLI ANELLI DI 
ACCUMULAZIONE 

di B. Touschek (n. 42) 

PARTICELLE PIÙ' VELOCI 
DELLA LUCE 

di G. Feinberg (n. 52) 

INTERAZIONI DI PROTONI 
DI ALTA ENERGIA 

di U. Arnaldi (n. 66) 

TEORIE UNIFICATE 
DELL'INTERAZIONE TRA 
PARTICELLE ELEMENTARI 

di S. Wainberg (». 75) 

LA RIVELAZIONE DI 
CORRENTI DEBOLI NEUTRE 

di D.B. Cline, A.K. Mann 
e C Rabbia (n. 80) 

MODELLI A RISONANZA 
DUALE DELLE PARTICELLE 
ELEMENTARI 

diJ.H. Schwarz (n. 82) 

L'ANNICHILAZIONE 
ELETTRONE-POSITONE E 
LE NUOVE PARTICELLE 

di S.D. Drell (n. 86) 

QUARK DOTATI DI COLORE 
E SAPORE 

di S.L. Glaskow (». 89) 

LA RICERCA DI NUOVE 
FAMIGLIE DI PARTICELLE 
ELEMENTARI 

di D.B. Cline, A.K. Mann 
e C. Rubbia (n. 93) 

LA MASSA DEL FOTONE 
di A.S. Goldhaber e 

M.M. Nieto (n. 97) 



36 



37 



BASSA ENERGIA 




SCHIAVITÙ 
INFRAROSSA 




ALTA ENERGIA 



l.a schiavili! infrarossa, una spiegazione proposta per il confinamento 
dei quark, è un concetto ricavato direttamente dalla teorìa dei campi 
che descrive le interazioni Ira i quark colorati e i ylinmi. Tale teoria 
rilienc che i quark a grandi distanze (al l'i nei rea le dimensioni di un 
adrone, IO"" centimetri) siano strettamente legali assieme e si muova- 
no conte un tult'tino. Il comportamento a grande distanza dei quark 
viene esaminato con sondaggi a bassa energia dell'adrone e in effetti a 



LIBERTÀ 
ULTRAVIOLETTA 



tuli energie Padrone appare come un corpo compatto e unitario. Del 
resto, quando i quark sono vicini, essi sono solo lievemente legati e 
possono muoversi indipendentemente. I.c forze agenti tra i quark a 
tali distanze vengono esplorate con sonde di alta energia e siffatti 
esperimenti hanno rivelato che l'adrone ha un centro di massa che 
sembra capace di muoversi lìberamente. 1 nomi di schiavitù infrarossa 
e libertà ultravioletta sono stali applicati a questi fenomeni per analogia. 



ce nel vuoto circostante un alone di cari- 
ca positiva, che neutralizza quasi la cari- 
ca nuda. La carica efficace dell'elettro- 
ne, misurata a una certa distanza, è sem- 
plicemente la differenza tra queste due 
cariche. Una particella di prova capace 
di portarsi vicinissima all'elettrone attra- 
verserà la barriera di carica positiva e 
avvertirà la grande carica nuda. 

Ricordiamo che l'elettromagnetismo è 
una teoria dì gauge abeliana, mentre la 
teoria dei quark colorati della forza forte 
non è abeliana. In questo contesto, la di- 
stinzione è essenziale, come hanno dimo- 
strato H, David Politzer di Harvard e 
David Gross e Frank Wtlczek dell'Uni- 
versità di Princeton. Nella teoria non 
abeliana la carica nuda non induce una 
carica di schermo, ma una carica di «an- 
tischermo». Così, un quark con una ca- 
rica di colore induce attorno a se stesso 
cariche addizionali della stessa polarità: 
il risultato è che la carica di colore del 
quark è minima a breve distanza; quan- 
do una particella si allontana dal quark 
la carica aumenta. La corrispondente leg- 
ge di forza è completamente diversa dal- 
la legge di Coulomb: all'aumentare della 



distanza tra le due particelle con carica 
di colore, la forza tra esse potrebbe re- 
stare costante o persino aumentare. 

Una particella di prova che entra in 
collisione con un adrone ad alta energia 
esplora il comportamento dei quark co- 
stituenti su piccolissime distanze e du- 
rante brevissimi intervalli di tempo. Que- 
sto fatto è determinato matematicamente 
dal principio di indeterminazione che col- 
lega il tempo e la distanza entro i quali si 
esegue una misura all'energia e alla quan- 
tità di moto della particella di prova. Si 
può capire intuitivamente ricordando che 
una particella di alta energia sì muove 
quasi alla vetolcità della luce e che essa 
«vede» i quark soltanto per un brevissi- 
mo istante, durante il quale essi possono 
percorrere solo una distanza brevissima. 
La teoria di gauge non abeliana prevede 
che una tale sonda ad alla energia rivele- 
rà che i quark sono essenzialmente parti- 
celle libere, in moto indipendentemente 
uno dall'altro, dato che a piccole distan- 
ze la carica di colore diminuisce e i quark 
sono solo lievemente legati uno all'altro. 

D'altra parte una ricerca a bassa ener- 
gia sugli adroni dovrebbe vedere i quark 



strettamente legati assieme e muoversi 
perciò come un tutt'uno. A tali energie 
relativamente basse i quark vengono os- 
servati per un periodo più lungo e posso- 
no interagire a distanze maggiori. Quindi 
i più potenti effetti a lunga distanza dei 
campi di gauge di colore tengono stretti i 
quark legandoli uno all'altro. 

Dato che la teoria non è abeliana, i 
gluonì sono soggetti alle stesse restrizioni 
dei quark e sono confinati con la stessa 
efficacia. 1 gluonì, o t campi che essi 
rappresentano, generano campi propri 
che hanno lo stesso carattere dei campi 
di colore dei quark. Il comportamento 
risultante dei gluoni è in netto contrasto 
con quello dei fotoni, i quanti dei campi 
di gauge della teoria abeliana dell'elet- 
tromagnetismo. I fotoni non danno da 
sol! origine a un campo elettromagnetico 
e sfuggono da tale campo senza alcun 
ostacolo. 

A questi due aspetti contraddittori del- 
la teoria di gauge del colore sono stati 
dati ì nomi pittoreschi dì schiavitù infra- 
rossa e libertà ultravioletta. I termini 
usati non si riferiscono a quelle partico- 
lari regioni dello spettro elettromagneti- 



co ma vogliono soltanto suggerire rispet- 
tivamente fenomeni a bassa e ad atta 
energia. 

La libertà ultravioletta è anche nota 
come libertà asintotica, poiché lo stato 
di moto completamente indipendente si 
avvicina asintoticamente e non viene mai 
raggiunto in pratica. L'effetto si sarebbe 
potuto osservare in collisioni tra elettro- 
ni e protoni : in esse, ad altissime energie, 
il protone si comporta come un insieme 
di quark liberi. 

11 concetto di schiavitù infrarossa for- 
nisce uno strumento evidente per spiega- 
re il confinamento dei quark. Se la cari- 
ca di colore efficace continua indefinita- 
mente ad aumentare con la distanza, al- 
trettanto fa l'energia necessaria per sepa- 
rare i due quark. Il raggiungimento di 
una distanza macroscopica richiederebbe 
un enorme ammontare di energia e co- 
stituirebbe sicuramente un'impossibilità 
pratica. 

Tuttavia la distribuzione spaziale della 
carica dì colore non è nota per distanze 
macroscopiche; in pratica di essa non si 
sa nulla per qualsiasi distanza maggiore 
delle dimensioni approssimative di un 
adrone: IO" 11 centimetri. Che la schiavi- 
tù infrarossa sia o no in grado di render 
conto del confinamento dei quark dipen- 
de dai particolari della distribuzione di 
carica. Si deve tuttavia sottolineare che 
non è necessario che la carica aumenti 
indefinitamente per intrappolare perma- 
nentemente i quark. Essa deve soltanto 
aumentare fino al punto in cui l'energia 
necessaria per separare ulteriormente i 
quark sia uguale all'energia necessaria 
per creare un quark e un antiquark. 
Quando si raggiunge tale energia la cop- 
pia quark-antiquark può materializzarsi. 
Il quark appena creato sostituisce quello 
estratto e l'antiquark si lega al quark 
spostato per formare un mesone. Il risul- 
tato è che un quark è stato allontanato 
da un adrone ma non è lasciato libero; 
tutto ciò che noi possiamo osservare è la 
creazione del mesone. 

Un tipo di carica che aumenta con la 
distanza e una forza che resta co- 
stante con la distanza sembrano contrari 
a una concezione intuitiva del comporta- 
mento della materia. Già in precedenza 
la meccanica quantistica ha contraddetto 
bruscamente l'intuizione, ma in questo 
caso può essere possibile una spiegazione 
e persino una elegante rappresentazione 
di come possano originare tali effetti. 
Questa spiegazione è un aspetto di un 
altro modello del confinamento dei quark 
chiamato modello a corde. 

Il modello a corde è nato da formule 
matematiche introdotte da Gabriele Ve- 
neziano del Weizmann Instìtute of Scien- 
ce. In tale modello gli adroni sono as- 
similati a corde flessibili ed estensibili 
in rapida rotazione. La corda è senza 
massa, almeno nel senso che non ha 
«grani» di materia lungo la sua lunghez- 
za, pur avendo energia potenziale e cine- 
tica. Una delle proprietà intrinseche at- 
tribuite alla corda e una certa tensione 
fissa, che fa sì che gli estremi della corda 



siano tirati uno verso l'altro da una for- 
za costante. La tensione rappresenta l'e- 
nergia potenziale (come accade per la 
tensione di una molla allungata) e il va- 
lore di tale energia è esattamente propor- 
zionale alla lunghezza della corda. Se la 
corda fosse stazionaria, la sua tensione 
intrinseca la farebbe spezzare, ma il si- 
stema può essere mantenuto in equilibrio 



facendo ruotare la corda. Durante la 
rotazione la corda si allunga e quando la 
sua lunghezza è tale che i suoi estremi si 
muovono con la velocità della luce, la 
forza centrifuga equilibra la tensione. 
(Gli estremi possono muoversi con la 
velocità della luce, anzi devono farlo 
dato che sono privi di massa.) 

In base alle relazioni tra lunghezza. 



CARICA ELETTRICA 



y 



ELETTRONE 



SCHIAVITÙ INFRAROSSA 




QUARK 



La distribuzione della carica di colore potrebbe spiegare gli effetti della schiavitù infrarossa e 
della libertà ultravioletta. La distribuzione sembra completamente diversa da quella della più 
familiare carica elettrica. L'elettrone ha nel suo centro una grande e Torse infinita carica 
negativa, chiamala carica nuda, che induce nel vuoto circostante una carica positiva quasi della 
stessa entità; la carica efficace dell'elettrone osservata a distanza è la differenza Ira queste due 
cariche. Invece, la carica nuda di colore si pensa sia molto piccola, in modo tale che la carica 
efficace aumenta, forse illimitatamente, mentre sì estende nello spazio. Da queste distribuirmi 
di carica deriva che le particelle elettricamente cariche seguono la legge di Coulomb: la forza Ira 
esse diminuisce con il quadralo della distanza. Le particelle dotate di una carica di colore 
seguono invece una legge mollo differente: la forza tra esse resta costante indipendentemente 
dalla distanza e l'energia di legame (o l'energia che deve essere fornita per separarle) aumenta 
con la distanza. La effettiva distribuzione della carica di colore non è stala misurata a grandi 
disianze e quindi sono possibili diverse estrapolazioni del grafico nella figura [linee tratteggiate). 



38 



39 



-> TENSIONE PROPORZIONALE ALLA LUNGHEZZA <- 




VELOCITA UGUALE ALLA VELOCITA DELLA LUCE 



11 modello a cordi' della struttura degli adroni porla a un'altra possibile spiegazione del confina- 
mento dei quark. Tale modello ipotizza che un adrone sia costituito da una corda unidimensio- 
nale priva di massa che ha come proprietà intrinseca una tensione costante per unità di 
lunghezza. A causa della sua tensione la corda tende a spezzarsi, ma può esser tenuta in 
equilibrio da una forza centrifuga se vien fatta ruotare in modo tale che i suoi estremi si 
muovano esaltamente con la velocità della luce. Queste proprietà della corda implicano che la sua 
energia sia proporzionale alla sua lunghezza e che il suo momento angolare sia proporzionale al 
quadrato della sua energia, relazione che è stata verificala sperimentalmente per gli adroni. 



CORDA 
QUARK \ ANTI QUARK 

ENERGIA = 1 



m 



ENERGIA = 1,5 



«-^ 



ENERGIA = 



ENERGIA = 3 



=©- 



QUARK 



ENERGIA = 1 



ANTI QUARK QUARK 



ENERGIA =1,5 



ANTIQUARK 



Quark fissali agli estremi di corde potrebbero davvero essere confinati. Per separare i quark è 
necessario tirare là corda, ma, essendo l'energia della corda proporzionale alla sua lunghezza, 
l'energia necessaria per separarli aumenta con la disianza. Una distanza macroscopica si può 
ottenere solo con enormi quantità di energia. In effetti l'isolamento di un quark non dovrebbe 
essere possìbile a qualsiasi energia, dato che, appena Tornita l'energia per la creazione di un 
quark e di un antiquark, la corda potrebbe spezzarsi e queste nuove particelle riapparire ai 
nuovi estremi. Quindi il risultalo non è la liberazione di un quark ma la creazione di un mesone. 



energia e rotazione che sono slate intro- 
dotte nel modello a corde, il momento 
angolare del sistema è proporzionale al 
quadrato dell'energia totale. Sotto que- 
sto aspetto il modello riflette un'impor- 
tante proprietà osservata per gli adroni: 
quando si rappresenta graficamente il 
momento angolare degli adroni in fun- 
zione del quadrato della loro massa o 
della loro energia il risultato è una serie 
di linee parallele chiamate traiettorie di 
Regge dal nome del fisico italiano Tullio 
Regge. La relazione tra il momento an- 
golare e l'energia insita nel modello a 
corde dà una spiegazione plausibile del 
dato osservativi per cui tutte le traietto- 
rie di Regge sono linee rette. 

I quark possono essere incorporali nel 
modello a corde semplicemente fissan- 
doli agli estremi delle corde. In tal caso 
si suppone che i quark trasportino i nu- 
meri quantici deil'adrone, mentre la cor- 
da trasporta la maggior parte dell'ener- 
gia e della quantità di moto. Il confi- 
namento dei quark deriva come una con- 
seguenza naturale delle proprietà della 
corda. Si fa l'ipotesi che i quark non 
possono essere strappati via e quindi il 
solo modo in cui possono essere allonta- 
nati è di tirare la corda. Qualsiasi au- 
mento di lunghezza della corda richiede 
però un aumento proporzionale della sua 
energia e quindi ancora una volta risulta- 
no impossìbili grandi distanze. Ciò no- 
nostante, anche se la corda non può 
venire allungata senza una eccessiva for- 
nitura di energia, essa potrebbe rompersi 
in due pezzi. Nel punto di rottura ai 
nuovi estremi si fisserebbero un quark e 
un antiquark di nuova creazione, con la 
creazione risultante di un mesone. In 
tutte queste interazioni il modello a cor- 
de appare dare risultati equivalenti a 
quelli dell'ipotesi di schiavitù infrarossa, 
anche se la descrizione fondamentale dei- 
l'adrone ha una forma alquanto diffe- 
rente. 

Come possono essere interpretate le 
corde senza massa in rotazione? Un'inte- 
ressante interpretazione è stata proposta 
da Holger B. Nielsen e da P. Olesen del- 
l'Istituto Niels Bohr in Danimarca; nello 
spiegarla ritorneremo ancora ai concetti 
dell'elettromagnetismo. La legge di Cou- 
lomb descrive un campo elettromagneti- 
co nello spazio tridimensionale e, se si 
rappresenta il campo con linee di forza 
discrete, è chiaro che l'intensità del cam- 
po diminuisce con il quadrato della di- 
stanza, dando la ben nota legge di forza. 
Se si potessero comprimere le linee di 
forza in un sottile tubo, esse non potreb- 
bero allargarsi e la forza resterebbe co- 
stante indipendentemente dalla distanza. 

La geometria caratteristica della corda 
suggerisce di poterla considerare come 
un campo di gauge unidimensionale. Le 
proprietà della corda stessa, in particola- 
re la forza di tensione intrinseca e la 
variazione dell'energia con la lunghezza, 
sono in accordo con il modello. Inoltre 
alle curiose proprietà del campo di gauge 
del colore si può dare una semplice e 
intuitivamente interessante spiegazione. 
Non è più la forza stessa a essere tipica: 



la forza è convenzionale e segue lo stesso 
tipo di legge dell'elettromagnetismo; le 
proprietà tipiche derivano tutte dalla geo- 
metria imposta al campo. 

In effetti campi virtualmente unidi- 
mensionali possono essere creati su scala 
macroscopica. Se un superconduttore (un 
conduttore elettrico raffreddato fino allo 
stato di superconduttività) viene immer- 
so in un campo magnetico, le linee di 
forza vengono espulse dal mezzo super- 
conduttore. Se i due poli di un magnete 
vengono completamente immersi in un 
superconduttore, le linee di forza vengo- 
no confinate in forma di un sottile tubo 
tra i poli, dove la superconduttività viene 
distrutta. Il tubo delle linee di flusso tra- 
sporta una quantità fissa di energia ma- 
gnetica per unità dì lunghezza e l'entità 
del flusso magnetico è quantizzata. Una 
analogia esatta richiede soltanto che si 
supponga che gli effetti di un mezzo su- 
perconduttore sul campo magnetico si 
sdoppino come effetti dei vuoto sul cam- 
po di gauge del colore. Una teoria basata 
su questo confronto è stata descritta ma- 
tematicamente: in essa i quark vengono 
assimilati agli ipotetici portatori della ca- 
rica magnetica, i monopoli magnetici. 

Il modello a corde della struttura degli 
adroni è nuovo e divertente, ma i 
tentativi di farne una teoria compieta e 
quantitativa hanno incontrato difficoltà. 
La disposizione dei quark agli estremi 
della corda è piuttosto arbitraria. Essa 
non pone alcun problema serio nel caso 
del mesone, che si può pensare come un 
singolo pezzo di corda con un quark e un 
antiquark agli estremi, ma non è chiaro 
quale struttura si debba assegnare al ba- 
rione. Sono possibili diverse configura- 
zioni, come la stella a tre punte o il 
triangolo con un quark in ogni vertice. 
La relazione tra massa o energia e mo- 
mento angolare per barioni e mesoni è 
molto simile (cioè le loro traiettorie di 
Regge sono quasi parallele}, il che impli- 
ca che la dinamica interna dei due tipi di 
particelle sia anche simile. Questa con- 
statazione favorisce anche un'altra pos- 
sibile struttura barionica: una sola corda 
con un quark a un estremo e due quark 
all'altro. In tale modello, però, i colori 
possono essere assegnati ai quark in tre 
modi che non sono tra loro equivalenti. 
Può darsi che il barione si trovi in riso- 
nanza tra queste configurazioni, nello 
stesso modo in cui l'anello del benzene 
risuona tra le sue varie strutture possibili. 
I numeri quantici di spin isotopico di 
colore e di ipercarica di colore possono 
essere sistemati nel modello a corde sup- 
ponendo che vi siano due tipi di corde, 
ciascuna col compito di trasportare il 
campo associato a ognuno dei numeri 
quantici. Però vi sono complessivamente 
otto campi di gauge, rappresentali dalle 
otto combinazioni co lore-anti colore dei 
gluoni. Vi sono allora anche otto tipi di 
corde? Come dobbiamo descrivere i mu- 
tamenti di colore dei quark dovuti al- 
l'emissione o all'assorbimento di un 
gluone? A queste domande si deve anco- 
ra dare una risposta soddisfacente. Può 




SUPERCONDUTTORE 





CAMPO UNIDIMENSIONALE 



I.a geometria della corda si potrebbe spiegare con un'analogia col comportamento di un campo 
magnetico in prossimità di un superconduttore. L'intensità di un campo magnetico diminuisce 
con il quadrato della distanza poiché le linee di forza sì estendono nello spazio tridimensionale. 
Le lince di flusso vengono espulse da un superconduttore e, se due poli sono circondali da mi 
superconduttore, il campo è confinato a un tubo sottile, in queste condizioni la forza tra i poli è 
cullante e l'energia necessaria per separarli aumenta linearmente con la Inni distanza, t M 
corda potrebbe rassomigliare a un campo unidimensionale, confinalo non da un super- 
condultore ma dal vuoto. Allora si potrebbe spiegare il confinamento anche se la carica di 
colore non aumenta con la disianza ma segue una legge simile a quella della carica elettrica;. 



MESONI 




La configurazione delle corde che collegano i quark non è ovvia in ne%sun cavo t- rappresenta un 
serio ostacolo all'ulteriore sviluppo del modello a corde. K conveniente considerare due tipi di 
corde, una associala a ciascuno dei numeri quantici di colore, spin isotopico di colore {nero) e 
ipercarica di colore {grigio}. Il legame di un quark e di un antiquark in un mesone con tali corde 
è evidente, ma i barioni richiedono una struttura più complessa, per la quale vi sono diverse 
il remali ve. Il barione potrebbe entrare in risonanza tra le varie strutture possibili, ma non tutte 
Mino soddisfacenti. I quark devono potersi scambiare i colori senza modificare la massa o altre 
proprietà degli adroni, ma ciò non è sempre possibile. Inoltre i colori dei quark danno origine a 
otto campi, associati agli otto gluoni, anziché a due, e non si vede come introdurli nel modello. 



40 



41 



darsi che il semplice ed elegante carattere 
del modello a corde sia troppo schemati- 
co per un sistema in cui gli effetti quan- 
to meccanici giocano un ruolo essenziale. 

Il terzo e più importante tentativo di 
interpretare il confinamento dei quark 
segue una strada alquanto differente, ma 
raggiunge conclusioni simili. Questo mo- 
dello è stato proposto da Kenneth A. 
Johnson del MIT e da altri e dà per 
scontato che i quark siano confinati; par- 
tendo da tale ipotesi cerca di calcolare le 
proprietà conosciute degli adroni. 

Per darsi consistenza il modello ricor- 
re a quello che è forse lo schema più 
ovvio: i quark sono intrappolati all'in- 
terno di una sacca, o bolla. È una carat- 
teristica del modello che i quark non 
possano attraversare il tessuto della sac- 
ca, ma la possono gonfiare esercitando 
una pressione dall'interno. L'energia del- 
la sacca stessa, però, è proporzionale al 
suo volume, in modo tale che sono ne- 
cessarie quantità di energia grandi e po- 
tenzialmente illimitate per separare i 
quark. Il sistema raggiunge l'equilibrio 
quando la tendenza della sacca a con- 
trarsi per rendere minima la propria e- 
nergia viene bilanciata dalla pressione 
interna dei quark, i quali si muovono 
liberamente come le molecole di un gas. 



Le interazioni dei quark all'interno della 
sacca seguono la teoria di gauge non 
abeliana standard. 

Dal modello a sacca si possono calco- 
lare con ragionevole precisione varie pro- 
prietà del protone, del neutrone e di 
altri adroni. In linea di principio il mo- 
dello non è molto diverso dalla descri- 
zione della corda di Nielsen-Olesen. In 
un caso la relazione critica è quella tra 
lunghezza e energia, nell'altro tra volu- 
me ed energia, ma l'effetto è lo stesso. 
La sacca potrebbe esser considerata co- 
me una corda tanto spessa quanto lunga. 
Se a sua volta una sacca rotonda viene 
fatta ruotare rapidamente, essa si allun- 
ga fino a trasformarsi in una corda. 

f iascuno di questi tre modelli ragghili- 
*—' gè il proprio obiettivo: fornisce cioè 
un meccanismo capace di imprigionare i 
quark all'interno degli adroni. Ciascun 
modello può anche render conto di alcu- 
ne proprietà degli adroni, ma nessuno di 
essi può essere considerato definitivo. 
Può darsi che la teoria completa che ne 
risulterà comprenda caratteristiche dei dì- 
versi modelli; per esempio, sarebbe inte- 
ressante ricavare il concetto di libertà 
ultravioletta nei modelli a corde. 

Una sintesi in questo senso è stata ten- 



tata da Kenneth G. Wilson della Cornell 
University. Nel modello di Wilson il con- 
tinuo spazio-tempo del mondo reale è 
schematizzato con un reticolo le cui celle 
hanno le dimensioni di un adrone. I 
quark possono occupare qualsiasi posi- 
zione nel reticolo e i campi di colore dei 
gluoni sì propagano secondo linee rette 
(le corde) che li tengono legati. Il confi- 
namento dei quark è automatico. 

I quark sono il risultato di un ragiona- 
mento teorico. Essi sono stati inventati 
in un periodo nel quale non vi era alcuna 
prova diretta della loro esistenza. L'ipo- 
tesi dell'incanto aggiunse un altro quark 
riuscendo a spiegare le proprietà di una 
altra grande famiglia di particelle quan- 
do tali particelle non erano nemmeno 
state osservate. Il colore, un concetto 
ancora più astratto, postula tre varietà di 
quark che possono essere distinte ma 
completamente indistinguibili. Ora le 
teorie del confinamento dei quark sugge- 
riscono che tutti i quark possano essere 
permanentemente inaccessibili e invisibi- 
li. Gli stessi successi del modello a quark 
ci riportano alla domanda se i quark sia- 
no reali. Se una particella non può essere 
isolata od osservata, neppure dal punto 
di vista teorico, come potremo sapere 
che esiste? 



r = t 



\ [ fi 



SACCA 



_, QUARK 



S^J 



ENERGIA = 1 



r= 1,26 



\ t / 



<4 




ENERGIA ■ 2 



r = 1,44 



\I/ 




ENERGIA = 3 




ROTAZIONE 



Il modello a sacca delta struttura degli adroni fornisce un lento 
meccanismo per spiegare il con l'in amen lo dei quark. In Tatti in questo 
modello il confinamento è una delle ipolesi iniziali, dato che i quark si 
suppone che siano inlrappolali ali 'interno di una sacca nella cui super- 
ficie essi non possono penetrare. La sacca è mantenuta gonfia dalia 
pressione esercitala dai quark all'interno di essa, allo stesso modo in 
cui un pallone è gonfialo dalla pressione del gas conlenuto. I quark 



possono venir separali soltanto aumentando questo rigonfiamento. 
Tuttavia l'energia della sacca stessa è proporzionale al suo volume e 
quindi ogni aumento della distanza Ira i quark richiede un'ulteriore 
fornitura dì energia. Il modello a sacca e il modello a corde sono stret- 
tamente collegali e la connessione tra essi diventa evidente se la sacca 
viene posta in rapida rotazione: in tal caso, infatti, essa si allunga fino 
a formare un oggetto che e praticamente indistinguibile da una corda. 



42 




l.a fotografia in allo rappresenta un impianto di produzione di 
idrocarburi ci uro fluorurati con nuovo processo Monledison. l.'impiun- 
lo produce fluorocarburi della serie IO e della serie 100 per rea- 
zione dirclta di doro e acido fluoridrico rispettivamente con meta- 
no ed etilene. Nella fotografia in basso è rai figurato uno spettrometro 



a risonanza magnetica laser per lo studio in laboratorio delle reazioni 
dei radicali HOi HO, di grande importanza per l'equilibrio dell'ozono 
stratosferico. Un forte campo magnetico viene impiegato per mettere 
in risonanza le transizioni rotazionali dei due radicali con linea a 
US micrometri di un laser a vapor d'acqua per il lontano infrarosso. 




Effetti antropogenici 
sull'ozonosfera 

Gli aerei supersonici e le esplosioni nucleari nell'atmosfera possono 
alterare il delicato equilibrio dell'ozono stratosferico, con potenziale 
pregiudizio della biosfera. È dubbia l'azione dei cloro fluorometani 

di Franco Verniani 



« ^ stato scoperto recentemente che 
I— | l'equilibrio dell'ozono stratosferico 
1 J è controllato principalmente dal- 
l'ossido di azoto e può essere influenzato 
da quantità anche mìnime di altri gas che 
pervengono nella stratosfera sìa attraver- 
so processi naturali sia per effetto di 
azioni antropogeniche: ciò ha destato vi- 
ve preoccupazioni anche al di fuori del- 
l'ambiente scientifico, dato che l'ozono- 
sfera ha un'importanza fondamentale per 
la vita sulla Terra, legata all'assorbimen- 
to di auasi tutta la radiazione solare 
ultravioletta compresa tra 310 e 210 na- 
nometri. Fu nel 1970 che Paul J. Crut- 
zen del National Center for Atmospheric 
Research di Boutder scoprì che il princi- 
pale meccanismo di rimozione dell'ozo- 
no dalla stratosfera era costituito dagli 
effetti catalitici degli ossidi di azoto NO 
e NOj, presenti in tracce in quella regio- 
ne atmosferica a causa di una serie di 
processi che avvengono spontaneamente 
in natura. Poco dopo, Harold S. John- 
ston e lo stesso Crutzen prospettaro- 
no la possibilità di una notevole riduzio- 
ne dell'ozono a causa delle grandi quan- 
tità di ossido di azoto immesse diretta- 
mente nella stratosfera dagli aerei super- 
sonici (SST) di cui erano allora in discus- 
sione i limiti d'impiego e dì sviluppo. La 
gravità dell'ipotesi, date le conseguenze 
che potrebbero derivare da una diminu- 
zione delia quantità globale di ozono 
(aumento dei casi di cancro della pelle, 
danni alle messi, alterazioni del sistema 
ecologico, eventuali cambiamenti del cli- 
ma), indusse il Congresso degli Stati U- 
niti a far istituire dal Dipartimento dei 
trasporti il Climatic Impact Assessment 
Program (CIAP) con l'incarico specìfico 
di investigare gli effetti sulla stratosfera 
degli aerei supersonici di alta quota. 

La realizzazione di questo vasto pro- 
gramma di ricerche ha avuto come natu- 
rale conseguenza anche quella dì indurre 
gli studiosi a considerare la possibilità 
che esistessero altre cause antropogeni- 
che di modificazione dell'ozonosfera: co- 



sì, dapprima fu scoperto che le esplosio- 
ni di ordigni nucleari nell'atmosfera co- 
stituiscono un pericolo per l'ozono a 
causa delie grandi quantità di ossido d'a- 
zoto che esse producono; successivamen- 
te, a causa del progetto dello space-shut- 
tle, il cui impiego (dal 1979) porterà 
all'immissione di piccole quantità di clo- 
ro nella stratosfera per effetto del per- 
ei orato d'ammonio impiegato come ossi- 
dante per il combustibile solido dei razzi, 
furono considerati ì potenziali effetti del 
cloro atomico lìbero nella stratosfera; 
questi studi portarono alla scoperta che 
questo elemento è ancora più efficace 
degli ossidi di azoto nella distruzione 
catalìtica dell'ozono. 

Poiché i vulcani sono un'importante 
sorgente di cloro, immesso direttamente 
nella stratosfera dalle eruzioni esplosive, 
fu avanzata l'ipotesi che il cloro atomico 
e l'ossido di cloro di origine naturale 
potessero essere importanti nel control- 
lare la distribuzione dell'ozono; altri stu- 
diosi giunsero invece alla conclusione op- 
posta. Ma nel 1974, mentre la discussio- 
ne verteva sulla rilevanza del flusso na- 
turale dei composti del cloro, Mario J. 
Molina e F. Sherwood Rowland, entram- 
bi dell'Università della California a Irvi- 
ne, prospettarono l'ipotesi che ì due prin- 
cipali clorofluorometani CFC1 3 e CF2CI1, 
composti organici alifaticì di vasto im- 
piego industriale come fluidi refrigeranti 
e come propellenti nelle bombolette 
spray, chimicamente inerti e scarsamente 
solubili in acqua e quindi con tempi di 
residenza atmosferici molto elevati, pos- 
sano pervenire nella stratosfera dove la 
presenza della radiazione solare ultravio- 
letta, di lunghezza d'onda compresa tra 
190 e 210 nahometri, li può dissociare 
liberando cloro atomico, capace di alte- 
rare l'equilibrio naturale dell'ozonosfera 
(si veda l'illustrazione nella pagina suc- 
cessiva). Qualche mese dopo, i risultati 
dei calcoli, effettuati con modelli atmosfe- 
rici unidimensionali indipendentemente 
da Crutzen e da Ralph J . Cicerone e col- 



laboratori dell'Università del Michigan, 
confermarono i timori di Molina e Row- 
land: Crutzen, per esempio, previde una 
deplezione media del 7 per cento dell'ozo- 
no totale in condizioni dì stato staziona- 
rio, a cui si arriverebbe in alcune decine di 
anni. Sulta base di questi risultati teorici, 
già nel la seconda metà del 1974, fu chiesto 
da più parti di proibire l'impiego dei fluo- 
rocarburi: era l'inizio di un'accesa contro- 
versia che trae spunto dall'impossibilità di 
stabilire con certezza se e quanto i fluo- 
rocarburi possano effettivamente contri- 
buire alla deplezione dell'ozono e, d'al- 
tra parte, dalle gravi conseguenze ipotiz- 
zate in caso di una diminuzione, anche 
ridotta, dell'ozono stratosferico. Occor- 
re precisare che non c'era, e non c'è 
tuttora, modo di verificare sperimental- 
mente la teoria nemmeno per via indiret- 
ta: inoltre, come vedremo, la quantità 
totale di ozono è soggetta nel tempo a 
forti variazioni naturali, per cui l'accer- 
tamento di un effetto antropogenico di 
deplezione richiederebbe che si verificas- 
se per diversi anni una diminuzione me- 
dia dell'ozono globale dell'ordine del 10 
per cento. Da circa un anno il discorso si 
è allargato anche al bromo, che sembra 
essere ancor più efficace del cloro nella 
distruzione dell'ozono stratosferico. 

L 'ozonosfera 

Nella stratosfera, una regione atmo- 
sferica praticamente priva di nubi e par- 
ticolarmente stabile data l'inversione di 
temperatura esistente, la radiazione sola- 
re ultravioletta (di lunghezza d'onda in- 
feriore ai 242 nanometri) produce l'ozo- 
no (0 3 ) attraverso la fotodissociazione 
dell'ossigeno molecolare (O a ) in ossigeno 
atomico (O) seguita dalla reazione a tre 
corpi O + O, + M — O, • M. 

La produzione globale di ozono, do- 
vuta alla radiazione solare ultravioletta, 
è di circa 5 X lCr" molecole al secondo, 
pari a ~ 4 x 10* chilogrammi al secon- 
do. Esistono meccanismi naturali di ri- 



44 



45 




Cl + O, ^CIO + O, 
CIO + O-'CI+O, 



STRATOSFERA 



TROPOSFERA 



««^ -— - 




HCI 




Schema del processo di rimozione catalitica dell'ozono dovuto all'immissione di fluorocarburi 
nell'atmosfera. Il triclorol'luoromelano (CKl'1,1 e il di e lo rodi Nuoro metano (t^FjC'li). essendo 
chimicamente inerii e scarsamente solubili in acqua, risiedono nella troposfera abbastanza a 
lungo da essere trasportati per diffusione nella stratosfera, dove la radiazione solare ultraviolet- 
ta di lunghezza d'onda intorno a 200 nanometri li dissocia liberando cloro atomico. 11 cloro 
atomico dà vita al ciclo catalitico di distruzione dell'ozono: tale ciclo viene interrotto quando 
l'atomo di cloro si combina con una specie idrogenata, essenzialmente metano (CH 4 ), per 
formare acido cloridrico (HCI), che, passa nella troposfera dove è eliminato dalla pioggia. 



mozione («pozzi») dell'ozono, quali la 
fotodissociazione, la ricombinazione con 
l'ossigeno atomico e soprattutto i cicli 
catalitici dell'azoto e del cloro, scoperti 
rispettivamente cinque e due anni fa. 
AJtri pozzi naturali di minore importan- 
za sono costituiti dal trasporto di O, 
dalla stratosfera al suolo con distruzione 
dell'ozono al contatto con la superficie 
terrestre, e la decomposizione catalitica 
di ()., su particelle di ossidi metallici di 
origine meteorica. I cicli catalitici del- 
l'azoto e del cloro sono rispettivamente: 
NO + 3 - NO : + 2 ; NO, + O -» 
- NO + O,; e CI + O, - CIO + O,; 
CIO + O - CI + Ot. 

Tra i meccanismi naturali di produzio- 
ne e dì rimozione dell'ozono sussiste un 
equilibrio dinamico che in media consen- 
te l'esistenza di circa 4,2 x IO 15 chilo- 
grammi di ozono distribuiti sul globo in 
modo non uniforme (si veda l'illustra- 
zione nella pagina a fronte). 

La distribuzione verticale dell'ozono è 
mostrata nell'illustrazione di pagina 48. 
Avendo la massima concentrazione tra 
15 e 30 chilometri d'altezza, l'ozono as- 
sorbe con molta efficienza la radiazione 
solare ultravioletta di lunghezza d'onda 
A minore di circa 310 nanometri: la con- 
seguente fotodissociazione conduce alla 
formazione di ossigeno atomico e mole- 
colare eccitati e protegge la vita sulla 
Terra dai pericoli dell'ultravioletto sola- 
re; tale processo di assorbimento costi- 
tuisce anche la sorgente principale di e- 
nergia per la stratosfera e la mesosfera, 



nonché un'importante componente del 
bilancio termoradiativo della Terra poi- 
ché la percentuale di radiazione solare 
assorbita dall'ozono varia tra l'I, 5 e il 3 
per cento a seconda dell 'elevazione del 
Sole e del valore della colonna di ozono, 
con un valore medio del 2,1 per cento 
per l'emisfero settentrionale. La massa 
totale di ozono contenuta nell'atmosfera 
terrestre equivale a 8,2 x IO"' della mas- 
sa dell'atmosfera stessa: la sua concen- 
trazione massima nella stratosfera non 
supera 6 x IO 11 molecole per centimetro 
cubo, corrispondenti a circa 5 parti per 
milione. Ciononostante, la sua importan- 
za è essenziale per la nostra vita, perché 
l'ozono è l'unico costituente atmosferico 
capace di assorbire efficacemente, nella 
banda di Hartley, la radiazione solare 
ultravioletta nell'intervallo spettrale com- 
preso tra circa 200 e 320 nanometri, 
perniciosa per la vita dell'uomo, degli 
animali e delle piante. La quantità ti- 
pica di ozono contenuta in una colonna 
verticale di area unitaria alle latitudini 
medie è di 0,3 cm-atm: corrispondente 
cioè a uno spessore di 0,3 centimetri in 
condizioni di temperatura e pressione 
standard; essa è pari a 8 X 10'* molecole 
per centimetro quadrato. Variazioni nel- 
la colonna di ozono o nell'angolo zenita- 
le solare causano significativi spostamen- 
ti della lunghezza d'onda di taglio per 
l'ultravioletto solare che raggiunge la su- 
perficie terrestre: dato che questa lun- 
ghezza d'onda (<*< 298 nm) è proprio in 
mezzo alla banda biologicamente nociva, 



questi spostamenti sono di grande inte- 
resse pratico. 

La colonna di ozono, cioè la quantità 
totale di ozono al di sopra di una super- 
ficie unitaria, varia sensibilmente da un 
punto all'altro della Terra, soprattutto 
con la latitudine (si veda l'illustrazione a 
pagina 49): essa è infatti quasi doppia 
nelle regioni polari rispetto a quelle e- 
quatoriali; inoltre essa fluttua considere- 
volmente nel tempo con variazioni a bre- 
ve, medio e lungo periodo, queste ultime 
probabilmente connesse con il ciclo sola- 
re. Le caratteristiche principali di queste 
variazioni a medio e lungo periodo sono 
importanti per Io studio degli effetti an- 
tropogenici. 

James K. Angeli e Julius Korshover del- 
l'Air Resources Laboratory della NOAA 
(National Oceanie and Atmospheric Ad- 
ministration) hanno studiato nel 1973 le 
variazioni a lungo termine dell'ozono 
globale e hanno trovato che tra il 1952 e 
il 1969 la quantità di ozono totale pre- 
sente sull'emisfero settentrionale è au- 
mentata del 3,9 per cento per decennio, 
mentre è diminuita sull'emisfero meri- 
dionale dell '1,2 per cento per decennio 
(tra il 1957 e il 1969), con un incremento 
medio dell'ozono globale dell' 1,5 per 
cento per decennio. Ancora più recente- 
mente, nel 1976, i medesimi ricercatori 
hanno riesaminalo l'informazione esi- 
stente, impiegando dati provenienti dalle 
stazioni operanti su tutto il mondo: essi 
hanno preso in esame sia il periodo 
1970-1974 per delineare l'andamento più 
recente dell'ozono totale, sia periodi più 
lontani per correlare le variazioni del- 
l'ozono con esplosioni nucleari, eruzioni 
vulcaniche ed eventi solari, tutti fenome- 
ni di cui è stato ipotizzato un possibile 
effetto di deplezione dell'ozono. Essi 
hanno trovato che i livelli di ozono tota- 
le, cresciuti su quasi tutto l'emisfero set- 
tentrionale durante gli anni sessanta, a- 
desso vanno diminuendo. Tra il 1962 e il 
1970, su quasi tutto l'emisfero setten- 
trionale e sulle regioni sudtropicali c'era 
stato un incremento nell'ozono che an- 
dava dall'I per cento del Giappone al- 
i'8 per cento della Russia europea; nel- 
l'Europa occidentale la fase crescente 
dell'ozono era durata ancora più a lungo 
(dal 1955 al 1970) con un incremento del 
7 per cento. Questo aumento dell'ozono 
cessò verso il 1970; tra il 1970 e il 1972 
quasi tutte le regioni del mondo hanno 
subito un declino dell '1-2 per cento. Sol- 
tanto nella Russia asiatica e nei tropici 
meridionali non si è verificato nessun 
cambiamento. Negli Stati Uniti e nella 
Gran Bretagna, per cui sono disponibili 
registrazioni più recenti, negli anni dal 
1970 al 1974 si è avuta una riduzione 
nell'ozono totale del 2 per cento, con 
una velocità annua di diminuzione che è 
scesa dallo 0,7 per cento tra il 1971 e il 
1972 allo 0,2 per cento tra il 1973 e il 
1974. Questi andamenti a lungo termine 
sembrano far parte delle variazioni del- 
l'ozono cosiddette «normali». L'ozono 
totale mostra quasi ovunque un'oscilla- 
zione quasi biennale che varia, a seconda 
delia località, in ampiezza e in periodo. 



tanto che neppure i massimi e i minimi 
avvengono simultaneamente su tutto il 
mondo: le oscillazioni registrate a Ko- 
daikanal (India) sono quasi esattamente 
in opposizione di fase rispetto a quelle 
registrate a Brisbane (Australia). Nell'e- 
misfero settentrionale c'è uno spostamen- 
to di fase delle oscillazioni abbastanza 
uniforme con il crescere della latitudine, 
laddove questo non accade nell'emisfero 
meridionale. 

Poiché la produzione dell'ozono nel- 
l'atmosfera è dovuta all'ultravioletto so- 
lare, da molto tempo viene ricercata nei 
dati una relazione diretta o indiretta tra 
le variazioni della quantità di ozono to- 
tale e quelle degli indici dell'attività so- 
lare: le prime ipotesi sull'esistenza di una 
tale correlazione risalgono ai primi del 
novecento. Da allora l'interesse per que- 
sto problema è sempre rimasto vivo ma 
le conclusioni sono state a volte favore- 
voli e a volte contrarie all'esistenza di 



100' OVEST 140 



una tale relazione: nel 1973 è stala trova- 
ta una significativa anticorrelazione tra 
quantità globale di ozono e indice delle 
macchie solari che successivamente è sta- 
ta confermata anche da Angeli e Kors- 
hover. La spiegazione è la seguente: i 
raggi cosmici sono deviati dal campo 
magnetico terrestre che li allontana dal- 
l'equatore focalizzandoli nelle regioni po- 
lari, dove sono in gran parte fermati 
nella stratosfera e nella troposfera supe- 
riore in cui producono coppie di ioni, 
elettroni e atomi; il ciclo solare influenza 
il flusso di raggi cosmici nell'atmosfera 
terrestre; i raggi cosmici producono ioni 
e ossido d'azoto nella stratosfera polare; 
l'ossido d'azoto fortemente e pronta- 
mente influenza l'ozono nell'alta strato- 
sfera polare e, in seguito a trasporto e 
diffusione, questo influenza debolmente 
e con un certo ritardo l'ozono nelle zone 
temperate e tropicali. Ciò spiegherebbe 
anche il ritardo di fase esistente tra il 



LONGITUDINE 

itxr 60" 



ciclo delle macchie solari e l'ozono totale 
e la diminuzione dell'ampiezza dell'ef- 
fetto andando dalle zone polari a quelle 
equatoriali. 

L'anticorrelazione del numero delle 
macchie solari con l'ozono globale, de- 
dotta dai dati del periodo 1930-1970, 
mostra l'esistenza di un chiaro picco nel- 
l'ozono totale nel 1941 e nel 1952 mentre 
non si è verificato il picco atteso nel 1963 
(si veda l 'illustrazione a pagina SO). Ag- 
giungendo alla quantità globale media di 
ozono, smussata mediante una media 
mobile su 11 anni, la quantità che se- 
condo i calcoli di Julius S. Chang e 
William H. Duewer del Lawrence Liver- 
more Laboratory è stata distrutta per 
effetto delle esplosioni nucleari di prova, 
Francis S. Johnson e collaboratori del- 
l'Università del Texas hanno ottenuto 
nel 1975 una curva (si veda e nell'illu- 
strazione di pagina 50) che mostra l'esi- 
stenza di picchi nell'ozono nel 1941, nel 



20' 0* 20" 



60* EST 



SO- 
NORO 




100' OVEST 140 



100* 
LONGITUDINE 



60' EST 



Nella carlina è rappresentata la distribuzione media annuale su tut- 
ta la Terra dell'ozono totale, espresso in unità Dobson (matm-cm). 
Il valore 340 in un certo punto significa, cosi, che l'ozono contenu- 
to in una colonna verticale al di sopra di quel punto corrisponde a 



uno spessore di 0,34 centimetri, nell'ipotesi che te condizioni di 
temperatura e pressione siano standard; per avere il corrisponden- 
te numero di molecole per centimetro quadrato basta moltiplicare 
per il numero di Loschmidt: 2,687 x 10" per centimetro cubo. 



46 



47 



1952 e nel 1963 e un tentativo di avvici- 
narsi a un possibile massimo nel 1974. 
Questa correlazione dell'ozono con il ci- 
clo solare undecennale e la sua interpre- 
tazione fisica danno, secondo Johnson e 
collaboratori, una conferma parziale del- 
l'effetto di deplezione dell'ozono previ- 
sto dai modelli per l'ossido d'azoto an- 
tropogenico. D'altra parte, è stato mo- 
strato nel 1975 che i risultati di Chang e 
Duewer sopravvalutano la deplezione del- 
l'ozono non essendo stato tenuto conto 
della differenza di quota tra la tropo- 
pausa polare e quella equatoriale. Essen- 
do stati ottenuti alcuni risultati a favore 
e altri contro l'esistenza di un effetto 
nucleare sull'ozono, molti esperti riten-- 
gono non completamente provata dalle 
osservazioni la perturbazione nucleare 
all'ozonosfera. Anche il più recente la- 
voro di Angeli e Korshover sembra però 
confermare la relazione tra ozono e atti- 
vità solare: registrazioni effettuate in Eu- 
ropa fino dal 1932 insieme ad altre regi- 
strazioni non continue effettuate a New 
York e a Washington mostrano che il 
massimo di ozono appare da due a tre 
anni dopo il massimo delle macchie sola- 
ri. In registrazioni più recenti sulla Rus- 
sia europea, sull'Europa occidentale e 
sull* America settentrionale i massimi del- 
l'ozono e quelli dell'indice delle macchie 



solari sono quasi coincidenti. Angeli e 
Korshover ritengono che- il decremento 
di ozono tra il 1970 e il 1974 potrebbe 
essere collegato al decremento del nume- 
ro delle macchie solari che ha seguito il 
massimo del 1969. È stata anche messa 
in rilievo una diminuzione dell'ozono to- 
tale dopo tre intensi brillamenti solari 
nel I960, nel 1966 e nel 1972. 

Dato che le eruzioni vulcaniche sono 
una sorgente di cloro stratosferico, è im- 
portante sapere se esiste una correlazione 
tra quantità di ozono totale e attività 
vulcanica: nonostante gli studi approfon- 
diti effettuati da diversi specialisti, soprat- 
tutto in relazione alla violenta eruzione di 
Mt. Agung (Bali), che avvenne nella pri- 
mavera del 1963 e immise tonnellate di 
polvere e di ceneri nella stratosfera, una 
relazione chiara tra attività vulcanica e 
quantità globale di ozono non è ancora 
stata trovata. Occorre tener presente che 
la determinazione dell'andamento della 
quantità totale di ozono è resa assai dif- 
ficoltosa dalle fluttuazioni presenti nei 
dati, di entità tale da rendere controver- 
sa ogni interpretazione. 

Previsioni sugli effetti di un 'eventuale 
deplezione dell'ozono 

L'ozono presente nella stratosfera as- 



sorbe oltre il 99 per cento della radiazio- 
ne solare di lunghezza d'onda inferiore a 
320 nanometri : una sua di minuzione com- 
porta anzitutto uno spostamento della 
frequenza di taglio nello spettro solare al 
suolo, cosicché per ogni lunghezza d'on- 
da nell'ultravioletto aumenta il flusso in- 
cidente e comincia a raggiungere la su- 
perficie terrestre anche radiazione di lun- 
ghezza d'onda tale che in precedenza era 
completamente assorbita. Sugli esseri u- 
mani, gli effetti meglio conosciuti di 
un'accresciuta esposizione alla radiazione 
ultravioletta sono l'abbronzatura della 
pelle e l'eritema. Esperimenti effettuati 
con sorgenti di luce ultravioletta hanno 
mostrato che l'azione eritemale varia 
sensibilmente con la lunghezza d'onda l: 
anche se esiste una elevata variabilità 
individuale, il cosiddetto «spettro d'azio- 
ne eritemale» mostra l'esistenza di una 
soglia a circa 320 nanometri, cosicché la 
radiazione di lunghezza d'onda maggiore 
(ultravioletto prossimo e visibile) ha ef- 
fetti del tutto trascurabili, mentre esiste 
un massimo relativo nella sensibilità del- 
la pelle per una lunghezza d'onda che 
varia generalmente tra 290 e 300 nano- 
metri; si ha poi un minimo relativo per 
un valore di A compreso tra 270 e 280 
nanometri; diminuendo ancora la lun- 
ghezza d'onda, l'azione eritemale aumen- 




30- 



25- 



20 



15- 



10- 



5- 



100 150 

PRESSIONE (NANOBAR) 



200 



250 




50 



100 150 

PRESSIONE (NAM08ARI 



200 



250 



Nei grafici è ripartala la distribuzione verticale media dell'ozono 
rilegala a diverse Ili li hi ili ni, rispettivamente in primavera (a sinistra) 
e in autunno {a destra). Come si vede, la massima concentrazione 



di ozono ha luogo tra circa 15 e 30 chilometri, dove esso può assorbire 
con molta efficienza la radiazione solare ultravioletta di lunghezza 
d'onda inferiore a 310 nanometri, proteggendo cosi la vita sulla Terra. 



ta notevolmente: fortunatamente, l'ultra- 
violetto lontano (o estremo ultravioletto) 
viene completamente assorbito dall'ozo- 
no e dall'ossigeno presenti nell'atmosfe- 
ra. Combinando lo spettro d'azione eri- 
ternate con la distribuzione dell'intensità 
dell'ultravioletto solare che raggiunge la 
Terra dopo essere stato filtrato dall'at- 
mosfera, è possibile descrivere l'efficacia 
eritemale globale della radiazione solare 
al suolo in funzione della lunghezza di 
onda: per un'elevazione del Sole di circa 
60 gradi, la lunghezza d'onda più effica- 
ce nel produrre l'eritema è compresa u- 
suaimente tra 300 e 305 nanometri. Di- 
minuendo l'ozono presente nella strato- 
sfera, questa lunghezza d'onda si sposta 
verso valori minori: è stato calcolato che 
se la massa dell'ozono si riducesse alla 
metà del suo valore attuale, lo sposta- 
mento sarebbe di circa 5 nanometri con 
un effetto eritemale globale più che rad- 
doppiato. La relazione tra diminuzione 
dell'ozono e aumento dell'ultravioletto 
alla superficie dipende dalla latitudine, 
dalla stagione e da altri fattori: in media, 
per piccole variazioni, l'incremento per- 
centuale nell 'irradianza (integrata sulla 
banda dell'ultravioletto che ha azione e- 
ritemale) è circa doppio della diminuzio- 
ne percentuale dell'ozono totale. 

Sugli uomini, gli effetti nocivi della 
radiazione ultravioletta sono limitati agli 
occhi e alla pelle, poiché l'ultravioletto 
non penetra al di là dell'epidermide. D'al- 
tra parte, è opinione diffusa negli am- 
bienti scientifici della medicina e della 
biologia che la banda di radiazione che 
causa l'eritema (pressappoco coincidente 
con l*ultravioletto medio) sia anche re- 
sponsabile dell'insorgenza del cancro del- 
la pelle o, per lo meno, sta uno dei 
principali fattori di stress nella genesi di 
questa malattia. 1 motivi sono essenzial- 
mente i seguenti: l'analisi statistica dei 
dati epidemiologici mostra che sia il lo- 
garitmo dell'incidenza del cancro della 
pelle sia il logaritmo del tasso di mortali- 
tà dovuto a tale malattia sono correlati 
linearmente con la latitudine e quindi 
con l'intensità dell'ultravioletto medio (le 
statistiche mostrano che l'incidenza sem- 
bra raddoppiare ogni 8-1 1 gradi di de- 
cremento della latitudine); il cancro della 
pelle si sviluppa negli stessi tessuti sog- 
getti a eritema; l'ultravioletto danneggia 
l'acido desossiribonucleico (DNA) e cau- 
sa mutazioni nelle cellule. È ragionevole 
supporre che l'insorgenza del cancro del- 
la pelle sia legata anche all'assorbimento 
di radiazione da parte del DNA; l'ultra- 
violetto medio provoca il cancro della 
pelle nei topi, mentre la radiazione di 
lunghezza d'onda maggiore non ha que- 
st'effetto. Secondo il rapporto finale del 
C1AP per il Congresso degli Stati Uniti, 
si può avere una ragionevole stima del 
limite superiore per l'incremento nell'in- 
cidenza del cancro della pelle non melano- 
mico per una popolazione di carnagione 
chiara, assumendo che una riduzione del- 
l'* per cento nella quantità totale di ozo- 
no, che determini un aumento medio del 
2x per cento nel flusso dell'ultravioletto 
solare alla superficie terrestre, produca 



440 




ANNUALE 

PRIMAVERA 

ESTATE 

AUTUNNO 

INVERNO 

' 1 



10 



20 



30 40 50 60 

GRADI DI LATITUDINE NORD 



70 



SO 



90 



L'andamento medio nelle varie stagioni dell'ozono totale sull'emisfero settentrionale è qui 
riportalo in funzione della latitudine. La curva in nero si riferisce all'andamento medio annuale. 



un aumento del 2x per cento nel numero 
di carcinomi cutanei (pari a 10*jc nuovi 
casi di malattia negli Stati Uniti). A que- 
sto proposito, occorre però osservare che 
sono stati sollevati alcuni dubbi sulla 
validità di tale correlazione, in base a un 
confronto statistico tra i tassi di mortali- 
tà per i diversi stati degli USA e per i 
paesi del mondo: risulta, per esempio, 
che il Colorado (altezza media 2100 me- 
tri) - dove l'irradianza di ultravioletto è 
circa tre volte maggiore deU'irradianza 
media per gli Stati Uniti e anche la fre- 
quenza di giorni sereni è superiore alla 
media - presenta un tasso annuo di mor- 
talità da cancro della pelle (1,69 x IO" 5 , 
cioè 1,69 decessi annui ogni centomila 
abitanti) che è tra i più bassi per gli Stati 
Uniti (media 2,40 X 10"*); nel mondo, 
inoltre, il paese che presenta il minimo 
tasso di mortalità per questa malattia è il 
Nicaragua (0,2 x 10"'), nonostante esso 
si trovi vicino all'equatore dove l'irra- 
dianza di ultravioletto solare è massima. 
In effetti, molte sembrano poter essere 
le concause che determinano l'insorgen- 
za del cancro della pelle: fattori genetici, 
pigmentazione della pelle, caratteristiche 
di comportamento, ecc., mentre l'inten- 
sità dell'ultravioletto potrebbe avere una 



importanza secondaria, anche perché gli 
effetti dell'ultravioletto sulla pelle dipen- 
dono molto dalla temperatura, dagli in- 
quinanti presenti nell'aria e soprattutto 
dalle modalità temporali di esposizione 
alla radiazione e dal genere di vita con- 
dotto dalle persone. Gli effetti biologici 
di una riduzione dell'ozono riguardano 
anche animali superiori, piante e insetti: 
tutte ìe forme più alte di vita hanno 
infatti delle difese e dei meccanismi di 
ricupero contro i danni da radiazione 
ultravioletta; la loro sopravvivenza di- 
pende anche dalla loro capacità di soste- 
nere lo stress dovuto all'ultravioletto. In 
effetti, una grande varietà di organismi 
appare essere sensibile alla radiazione 
ultravioletta media: oltre alla vegetazio- 
ne terrestre anche il fitoplancton, le al- 
ghe, gli insetti e le larve. Molti di que- 
sti organismi hanno una capacità limita- 
ta per adattare o riparare i tessuti che 
potrebbero essere danneggiati in seguito 
a un aumento nella radiazione ultravio- 
letta media. Esperimenti preliminari han- 
no mostrato che l'ultravioletto medio 
causa una parziale inibizione della foto- 
sintesi delle piante e ne riduce la crescita, 
provocando così danni alle messi. Risul- 
tati preliminari mostrano anche che la 



48 



49 



® 




1930 



1940 



1950 



1960 



1970 



ANNO 



Variazioni a lungo perìodo dell'ozono Inlale nell'emisfero settentrionale correlate con il ciclo 
undecennale delle macchie solari espresso attraverso l'indice usuale, ossia il numero di Wolf lui: 
le rilevanti variazioni stagionali dell'ozono totale (6) vengono smussate mediante una me- 
dia mobile su 1 1 anni {curva in colore in hi che viene riportata in (e) insieme con la correzione 
calcolata da Julius S, Chang e William H. Duewer per l'effetto delle esplosioni nucleari. 



fotosintesi del fìtoplancton (piante mi- 
croscopiche di ecosistemi acquatici) viene 
notevolmente depressa dall'ultravioletto 
medio: questo fatto è assai rilevante per 
il sistema ecologico globale poiché il fi- 
toplancton costituisce la base per le cate- 
ne di cibo acquatico, cosicché la sua 
importanza per i sistemi acquatici è equi- 
valente a quella delle piante verdi nel- 
l'ambiente terrestre. 

Oltre agli effetti biologici, una deple- 
zione dell'ozono potrebbe avere alcuni 
effetti sul clima, ma le opinioni degli 
esperti sono divise: alcuni ritengono che 
tali effetti siano trascurabili poiché il 
centro regolatore del clima è la troposfe- 
ra e lo scambio dalla stratosfera alla 
troposfera è scarso; altri ritengono pos- 
sibile che un aumento della radiazione 
ultravioletta produca un aumento non 
trascurabile della fusione dei ghiacci po- 
lari; al contrario, secondo l'opinione di 
altri, la deplezione dell'ozono potrebbe 
condurre a una diminuzione della tempe- 
ratura globale media attraverso una per- 
turbazione dell'effetto serra dell'atmosfe- 
ra. Purtroppo, i modelli attuali non sono 
ancora in grado di rappresentare in mo- 
do completo le condizioni climatiche ef- 
fettive, cosicché essi non possono servire 
per stabilire quantitativamente gli effetti 
climatici sia di una deplezione dell'ozono 
sia, più in generale, dell'inquinamento 
della stratosfera che ne è la causa. Ciò 
che si può dire con certezza è che una 
deplezione dell'ozono diminuirebbe l'e- 



nergia che questo gas reirradia nell'in- 
frarosso: poiché una parie di questa e- 
nergia viene assorbita dalla superficie 
terrestre, questa diminuzione causerebbe 
un certo raffreddamento della Terra, in 
qualche modo controbilanciato dall'au- 
mento dell' irradianza di ultravioletto al 
suolo. Occorre anche considerare che la 
diminuzione dell'energia assorbita nell'o- 
zonosfera provocherebbe un minor ri- 
scaldamento della stratosfera, che - se- 
condo gli attuali modelli climatici - sa- 
rebbe accompagnato da un maggior ri- 
scaldamento della troposfera. Quando la 
deplezione dell'ozono è causata da ossidi 
d'azoto, occorre anche considerare l'ul- 
teriore riscaldamento della stratosfera (e 
conseguente raffreddamento della tropo- 
sfera) dovuto all'assorbimento nel visibi- 
le da parte di biossido d'azoto. L'effetto 
globale di tutte queste variazioni nei mec- 
canismi naturali di riscaldamento dei va- 
ri strati dell'atmosfera è molto incerto e 
non è possibile attualmente valutarlo: se- 
condo il Climatic Impact Committee 
(1975) non è lecito considerarlo a priori 
trascurabile, anche se peraltro l'eventua- 
le cambiamento di temperatura superfi- 
ciale globale dovuto a una deplezione 
dell'ozono del 10 per cento non dovreb- 
be superare qualche decimo di grado e la 
piovosità globale dovrebbe variare entro 
limiti di ± 5 per cento. 

Tali cambiamenti globali non sarebbe- 
ro però distribuiti uniformemente: nei 
continenti dell'emisfero settentrionale alle 



latitudini più elevate i cambiamenti di 
temperatura potrebbero essere maggiori 
e arrivare anche a un grado; localmente 
le precipitazioni potrebbero essere molto 
più disturbate, con una variazione della 
piovosità anche del ± 10 per cento e con 
le conseguenze che ciò può avere per le 
messi. D'altra parte, non si può esclu- 
dere che il cambiamento del clima dovu- 
to a variazioni dei valori medi della tem- 
peratura e delta piovosità anche dell'or- 
dine di grandezza menzionato non possa 
avere effetti non irrilevanti. 

In conclusione, siamo ancora ben lon- 
tani dal poter valutare con sicurezza e in 
modo completo tutti gli effetti biologici, 
climatici ed ecologici dì una eventuale 
deplezione dell'ozono: nonostante l'enor- 
me mole di lavoro svolta dal CIAP che 
ha impiegato per quattro anni oltre mille 
studiosi appartenenti alle diverse disci- 
pline interessate, la vastità e la comples- 
sità dei problemi sollevati e delle loro 
implicazioni a lungo termine rendono in- 
dispensabili ulteriori sostanziali progressi 
della scienza, quali ad esempio la realiz- 
zazione di un modello completo per lo 
studio del clima, l'identificazione certa 
delle cause del cancro della pelle, la de- 
terminazione dettagliata degli effetti del- 
l'ultravioletto medio sui cereali e sulla 
vegetazione in generale. Sul clima, la pre- 
senza dei clorofluorometani nell'atmosfe- 
ra ha anche un effetto diretto che è stato 
messo in evidenza nel 1975 da V, Rama- 
nathan del NASA Langley Research 
Center: infatti gli spettri dei fluorocarbu- 
ri presentano intense bande nell'infraros- 
so che assorbono una parte della radia- 
zione emessa dalla superficie terrestre con 
successiva riemissione alla temperatura 
atmosferica. Il risultato è una diminuzio- 
ne del flusso netto di radiazione infraros- 
sa del sistema Terra-atmosfera, che pro- 
duce un aumento della temperatura glo- 
bale media T s della superficie terrestre. 
Secondo i calcoli più recenti, seppur an- 
cora preliminari e da considerare con e- 
strema cautela, l'immissione di fluorocar- 
buri nell'atmosfera, proseguita al livello 
del 1973, causerebbe nel 2000 un aumen- 
to di 0,2 gradi nella temperatura 7" 5 . 

Effetti degli ossidi d'azoto antropogenia 

Abbiamo già ricordato che gli ossidi 
d'azoto costituiscono il principale mec- 
canismo naturale di distruzione dell'ozo- 
no: infatti, nella stratosfera imperturba- 
ta, la rimozione dell'ozono è dovuta per 
circa il 70 per cento al ciclo catalitico 
dell'azoto, per il 17 per cento alla com- 
binazione di ozono con ossigeno e per 
1*11 per cento circa all'interazione di o- 
zono con radicali OH, H, H0 3 . L'ozono 
distrutto al suolo ammonta a ** 0,4 per 
cento della sorgente stratosferica. L'ossi- 
do d'azoto (NO) si forma spontaneamen- 
te nella stratosfera dalla reazione del 
protossido d'azoto (NiO) con l'ossigeno 
atomico eccitato. A sua volta il protossi- 
do d'azoto viene prodotto negli oceani e 
nel suolo da batteri, resta chimicamente 
inerte nella troposfera e si diffonde len- 
tamente nella stratosfera. Un'altra sor- 



gente naturate di ossido di azoto è costi- 
tuita dai raggi cosmici che lo producono 
interagendo con i gas atmosferici. Altre 
sorgenti naturali di ossido di azoto stra- 
tosferico sono costituite dai protoni d'al- 
ta energia provenienti da brillamenti so- 
lari e dal passaggio attraverso la tropo- 
pausa di ossidi d'azoto troposferici. Nel- 
la stratosfera l'ossido d'azoto si diffonde 
lentamente verso il basso, viene trasfor- 
mato in acido nitrico e successivamente 
eliminato dalla pioggia. 

Attualmente, la più preoccupante sor- 
gente antropogenica di ossidi d'azoto 
(NO*) è l'impiego di aerei che volano 
nella bassa stratosfera. 

Gli aerei supersonici 

Il problema dei trasporti supersonici 
(SST) è dovuto essenzialmente all'inver- 
sione di temperatura esistente nella stra- 
tosfera: il fatto che la temperatura au- 
menti con l'altezza impedisce il rimesco- 
lamento verticale della stratosfera, cosic- 
ché i prodotti di combustione immessi vi 
restano per alcuni anni. Mentre la di- 
spersione degli inquinanti lungo la verti- 
cale é molto lenta, il rimescolamento 
orizzontale è più veloce e ha effetti assai 
estesi: se nella direzione nord-sud occor- 
rono alcuni mesi perché un inquinante 
raggiunga il polo o l'equatore, nella di- 
rezione est-ovest basta appena una setti- 
mana perché la diffusione si estenda a 
tutte le longitudini. Da tempo gli aerei 
subsonici votavano nella zona più bassa 
della stratosfera, senza che ne fossero 
state studiate a fondo le conseguenze. Il 
problema dell'inquinamento di questa re- 
gione atmosferica fu sollevato soltanto 
qualche anno fa negli Stati Uniti, duran- 
te il dibattito al Congresso sul progetto 
di costruire una flotta di aerei supersoni- 
ci che avrebbero volato a una quota di 
circa 20 chilometri. Le dichiarazioni di 
alcuni scienziati sulla presunta nocività 
degli SST dettero origine a una contro- 
versia che ebbe grande rilevanza nel pae- 
se. Le valutazioni sostenute allora dagli 
assertori della nocività degli SST posso- 
no riassumersi in questi termini: una ri- 
duzione sistematica e a lungo termine 
dell'I per cento nell'ozono totale esisten- 
te avrebbe provocato un aumento del- 
l'incidenza del cancro della pelle, valuta- 
bile in 8000 nuovi casi all'anno negli 
Stati Uniti; una flotta di 500 Boeing 
supersonici, costruiti secondo i progetti 
allora presentati e con un indice di emis- 
sione di biossido di azoto del 2,3 per 
cento (cioè 23 grammi di biossido di azo- 
to per ogni chilogrammo di carburante), 
avrebbe provocato una deplezione del 23 
per cento dell'ozono globale, con punte 
locali fino al 50 per cento in vicinanza 
delle aerovie di grande transito. Il Con- 
gresso non approvò la realizzazione con 
fondi federali del progetto di SST ameri- 
cano e deliberò un cospicuo stanziamen- 
to per un'indagine scientifica approfon- 
dita sulle modifiche che gli SST potreb- 
bero apportare alla stratosfera: nel 1971 
fu così istituito il CIAP, con il compito 
di raccogliere ed elaborare - attraverso 



un vastissimo programma di ricerche in- 
terdisciplinari - tutte le informazioni ne- 
cessarie per valutare i danni all'ambiente 
prodotti dall'impiego di flotte di aerei 
supersonici di date caratteristiche, dal su- 
personico anglofrancese Concorde e dal 
sovietico Tupolev-144 a tutti gli altri tipi 
di aereo previsti o progettali per i 50 anni 
successivi; oltre alla deplezione dell'ozo- 
no, il CIAP ebbe incarico di prendere in 
considerazione tutti gli effetti biologici, 
ecologici, climatici e socioeconomici de- 
gli SST. Il CIAF ha assolto egregiamente 
il suo compito, svolgendo approfondite 
ricerche nei diversi settori scientifici inte- 
ressati: nel marzo 1975, esso ha pubbli- 
cato il rapporto finale sugli effetti del- 
l'inquinamento della stratosfera da SST, 
seguito da sei monografie che contengo- 
no l'esposizione dei dati analizzati nel 
rapporto e concementi rispettivamente: 
la stratosfera naturale del 1974, gli ef- 
fluenti della propulsione nella stratosfe- 
ra, la stratosfera perturbata dagli effluenti 
della propulsione, la troposfera naturale 
e radiati vamente perturbata, t'impatto 
dei cambiamenti del clima sulla biosfera 
e le misure socioeconomiche dei cambia- 
menti biologici e climatici. 
La combustione degli idrocarburi im- 



piegati dagli aerei a reazione produce gas 
di scarico costituiti principalmente da ac- 
qua e da anidride carbonica a cui si ag- 
giungono piccole quantità di ossidi di 
azoto, di zolfo e di carbonio; l'indice di 
emissione di questi ultimi può essere di- 
minuito modificando il progetto dei mo- 
tori in modo da diminuire le temperature 
raggiunte durante la combustione. An- 
che gli aerei subsonici, che hanno una 
quota di crociera non superiore a circa 
12 chilometri, costituiscono una sorgente 
d'inquinamento della stratosfera, ma no- 
tevolmente maggiore è la nocività degli 
SST che volano più in alto (il Concorde 
e il Tupolev-144 volano a un'altezza 
compresa tra 16 e 17 chilometri; la pros- 
sima generazione di SST dovreoBe volare 
a una quota di circa 20 chilometri; a 
lungo termine, sono previsti aerei iper- 
sonici che volerebbero al di sopra di 30 
chilometri) e immettono nella stratosfera 
quantità di ossidi d'azoto notevolmente 
più elevate. Per quanto riguarda ì ve li vo- 
li subsonici, il CIAP ha accertato che la 
flotta complessiva attuale produce una 
deplezione dell'ozono dell'ordine dello 
0,1 per cento. Molto più grave è la de- 
plezione causata dagli SST: una flotta di 
100 Concorde che volasse 4 ore e mezzo 



COSTITUENTI DELL'ATMOSFERA 


PERCENTUALE IN VOLUME 


Azoto N, 


78,084 


Ossigeno Oj 


20,946 


Argo Ar 


0,934 


Anidride carbonica CC : 


0.033 


Neo Ne 


0.00182 


Elio He 


0,00052 


Cripto Kr 


0.00011 


Impurezze 


0.00055 



L 'atmosfera è costituita da un miscuglio di gas diversi, essenzialmente azoto e ossigeno. Se si 
prescinde dal vapor d'acqua, estremamente variabile nel tempo e nello spazio, e si considera 
l'aria secca, sì trova che la sua composizione è ovunque praticamente costante. Le sostanze a 
co ncen trazione variabile (denominate talvolta «impurezze») sono: melano (CH>). ossido di 
carbonio (CO), anidride solforosa (SO,), protossido d'azoto i.YOl. ozono r(i .. biossido di 
a/ut» (NO,) e fi isti lui ■.cunii circa cinque milionesimi ili un retane d'aria Mirri .il note, 
l.'o/ono, consideralo una impurezza in prossimità del suolo e nella troposfera, è presente in 
elevate concentrazioni nella stratosfera dove ha una funzione fondamentale. Le proporzioni 
relative dei costituenti principali dell'aria secca si mantengono praticamente invariate fino a 
circa 90 chilometri a causa del rimescolamento convettivo dell'atmosfera; ugualmente invarialo 
si mantiene dunque il peso molecolare medio. Per ogni gas presente nell'aria, esistono una o più 
sorgenti che lo immettono nell'atmosfera e uno o più pozzi che lo rimuovono dall'atmosfera 
slessa: si può pertanto definire un «tempo di residenza» per ciascun gas. Questa tempo è 
dell'ordine di pochi giorni per componenti minori la cui concentrazione è mollo variabile (come 
HiOe SOi), dell'ordine di alcuni anni per componenti minori la cui concentrazione varia più 
lentamente (Oj, COi, NjO) ed e infine esiremamenie lungo per i costituenti maggiori, che per 
questa ragione vengono chiamati anche costituenti permanenti. L'esistenza dei costituenti 
permanenti indica che l'atmosfera ha ormai raggiunto uno stadio di equilibrio dinamico. Lo 
studio delle conce ni razioni di alcuni costituenti minori, variabili con l'altezza (come l'ozono e 
l'ossido d'azoto) ha grande importanza per i fenomeni di assorbimento radialivo connessi a 
queste sostanze. Sopra i 100 chilometri, dove Inizia l'aumento di temperatura caratteristico delia 
[crini Mera comincia ad avere qualche erfelto la separazione diffusiva, il processo per cui i gas 
più pesanti tendono a portarsi a quote inferiori dei gas più leggeri. A quote minori questo 
processo non può aver luogo a causa dei continui moti turbolenti dell'aria. Dal punto di vista della 
composizione, si usa pertanto distinguere l'omosfera (in cui la composizione è sostanzialmente uni- 
forme) dali'eterosfcra dove la composizione e quindi I! peso molecolare medio variano con l'altezza. 



50 



51 



al giorno per 365 giorni all'anno, pro- 
durrebbe, secondo il CIAF, una deple- 
zione dell'ozono dello 0,4 per cento; una 
flotta di 100 aerei supersonici di maggio- 
ri dimensioni produrrebbe una deplezio- 
ne dell' 1,7 per cento. Sulla base delle 
conclusioni del CIAP, Johnston ha os- 
servato che se gli Stati Uniti avessero 
realizzato il Boeing supersonico con le 
caratteristiche previste dal progetto ori- 
ginale, la deplezione dell'ozono causata 
da una flotta di 500 aerei di quel tipo 
sarebbe stata del 12 per cento, anche 
supponendo un indice di emissione di 
NO x ridotto a quello del Concorde. Inol- 
tre, supponendo che l'indice di emissione 
di NO x rimanga invariato al suo valore 
attuale di 18 grammi per chilogrammo di 
carburante, la flotta di SST prevista per il 
2025 ridurrebbe l'ozono a un livello infe- 
riore a 1/3 di quello attuale; in effetti, è 
lecito presumere che l'industria aeronau- 
tica modificherà i progetti degli aerei in 
modo da abbassare notevolmente l'indi- 
ce di emissione di NO* : però anche am- 
mettendo di riuscire a ridurre di un fat- 
tore 60 le immissioni stratosferiche di os- 
sidi di azoto da SST, la flotta prevista 
per il 2025 provocherebbe ugualmente 
nell'emisfero settentrionale una deplezio- 
ne dell'ozono del 5 per cento, a meno 
che la futura domanda di voli sia sensi- 
bilmente inferiore alle attuali previsioni. 
Occorre inoltre osservare che successiva- 
mente il Climatic Impact Committee 
(C1C), nominato dalla National Acade- 
my of Sciences e dalla National Acade- 
my of Engineering con il compito speci- 
fico di fornire una valutazione indipen- 
dente del lavoro svolto dal CIAP, ha 
previsto un effetto di deplezione da SST 
dì entità circa doppia rispetto alle previ- 
sioni CIAP. Le sue conclusioni sull'enti- 
tà della deplezione dell'ozono causata da 
SST, rese note nel 1975, sono sintetizzate 
nella tabella dì questa pagina. Gli aerei 
supersonici influenzano l'ozono anche at- 
traverso l'acqua che essi immettono nella 



stratosfera e che perturba il meccanismo 
di rimozione dell'ozono mediante radi- 
cali idrogenati (HO^). Quest'effetto ri- 
sulta però trascurabile in confronto agli 
effetti di deplezione da NO^. L'acqua 
immessa non sembra avere effetto rile- 
vante neppure sull'equilibrio radiativo 
della Terra. 

Chiuderemo il discorso sugli aerei su- 
personici, ricordando che agli inizi del 
maggio 1976, Stati Uniti, Gran Bretagna 
e Francia hanno sottoscritto un accordo 
per migliorare ed estendere il monitorag- 
gio della stratosfera e dell'ozono totale 
in modo da poter studiare più approfon- 
ditamente le fluttuazioni a lungo termine 
della quantità globale di ozono. 

Le esplosioni nucleari 

Le esplosioni termonucleari nell'atmo- 
sfera riscaldano l'aria circostante a tem- 
perature altissime, provocando la disso- 
ciazione dell'ossigeno e dell'azoto e pro- 
ducendo cosi grandi quantità di ossidi di 
azoto che si distribuiscono su scala glo- 
bale depositandosi proprio nella bassa e 
media stratosfera dove più alta è la con- 
centrazione di ozono. La più recente sti- 
ma della quantità di ossido di azoto pro- 
dotto da un'esplosione nucleare ha for- 
nito un valore probabile di 0,8 x IO 31 
molecole per megaton con limiti estremi 
di 0,4 X IO 31 e 1 ,5 X 10" molecole per 
megaton. Lo studio della distribuzione 
nella stratosfera di ossido di azoto dovu- 
to alle esplosioni di prova effettuate nel- 
l'atmosfera da Unione Sovietica e Stati 
Uniti negli anni 1961-1962 ha permesso 
di valutarne gli effetti, consistenti in una 
deplezione dell'ozono allo stato stazio- 
nario nell'emisfero settentrionale varia- 
bile dal 3,5 al 6,3 per cento a seconda 
della latitudine e nell'emisfero meridio- 
nale in una deplezione inferiore all'I per 
cento. Recentemente, è stata effettuata 
una stima dell'effetto delle esplosioni nu- 
cleari sull'ozono, calcolando la quantità 



e la distribuzione dell'ossido d'azoto for- 
mato dalla detonazione di 5000 megaton 
di bombe nucleari, inserendo poi i ri- 
sultati in un modello fotochimico del- 
l'atmosfera (unidimensionale e funzione 
del tempo) per calcolare la diminuzione 
di ozono e il successivo ricupero. 

Nel caso di distribuzione uniforme di 
ossido di azoto su tutto l'emisfero set- 
tentrionale, si è trovato che la massima 
deplezione dell'ozono raggiunge il 24 per 
cento e ha luogo quattro mesi dopo l'e- 
splosione; dopo tre anni, la deplezione è 
ancora dell '8 per cento. Nel caso che 
l'ossido di azoto si distribuisca limitata- 
mente alla zona compresa tra 30 e 70 
gradi nord, si avrebbe una deplezione 
massima del 37 per cento quattro mesi 
dopo l'esplosione, ridotta al 15 per cento 
dopo tre anni. È opinione degli esperti 
che una guerra nucleare avrebbe tali con- 
seguenze sull'ozonosfera da provocare 
alle popolazioni civili danni superiori a 
quelli del fallout radioattivo. In effetti, il 
noto esperto canadese John Hampson 
dell'Université Lavai di Quebec ritiene 
che una guerra nucleare, anche su scala 
molto limitata, danneggerebbe l'ozono- 
sfera in modo tale da provocare la di- 
struzione irreversibile della biosfera. Le 
considerazioni di Hampson sono del più 
grande interesse anche da un punto di 
vista molto generale e dovrebbero essere 
prese in seria considerazione nelle tratta- 
tive tra le due superpotenze sulle limita- 
zioni delle armi strategiche: infatti, il 
pericolo potenziale globale derivante da 
cambiamenti nella chemosfera pone un 
limite relativamente basso, certamente 
oggi di gran lunga superato, al potenzia- 
le bellico delle armi nucleari che ha an- 
cora senso possedere. 

I fertilizzami azotati 

Abbiamo ricordato che l'ossido d'azo- 
to presente nella stratosfera proviene es- 
senzialmente dall'ossidazione del protos- 



TIPO DI FLOTTA 


ALTEZZA 
DI CROCIERA 
(CHILOMETRI) 


COMBUSTIBILE 
IMPIEGATO 
(10*kgfanno) 


OSSIDI DI 
AZOTO (NO ) 

PRODOTTI 
(10* Kg /anno) 


AUMENTO DELLA 

CONCENTRAZIONE 

DI NO IN PARTI 

PER MILIARDO 


DIMINUZIONE 
PERCENTUALE 
DELL'OZONO 


FATTORE 
DI INCERTEZZA 


100 aerei subsonici 
(modelli attuali) 

100 aerei subsonici 
(modelli progettati) 

100 aerei supersonici 
(modelli attuali) 

100 aerei supersonici 
di grandi dimensioni 

Flotta del 1990 
(limile superiore CIAP) 

Flotta del 2025 
(lìmite superiore CIAF) 


10.5 
13,5 
16,5 

19,5 
16,5-19,5 
16,5-19,5 


2,6 

2.6 

3,5 

9,1 
1,6-30.6 
8,1-155 


39 
39 
62,8 
164 
29-551 
146-2790 


0,015 
0,113 
0,52 
2,37 
0,24-7,96 
1.20-40.3 


0,02 
0,16 
0,72 
3,27 
~11 
>30 


10 
10 
3 
2 
2 
2 



La tabella si riferisce alla deplezione dell'ozono dovuta ai voli nella 
stratosfera, valutata dal CI ima li e Impaci Commi 11 ee nel 1975. Le no- 
levoli incertezze nei valori della deplezione [ultima colonna a destra} 
sono dovute soprattutto alla scarsa precisione con cui altualmenle si 
può tener conto del rimescolamento dell' alinosi era. Oltre ai modelli 



unidimensionali (si vedano le illustrazioni a pagina 57 e a pagina SS) 
recentemente sono slati impiegati nel calcolo della deplezione dell'ozo- 
no anche modelli bidimensionali e tridimensionali. Per quanto riguar- 
da 1'aspclt» globale, però, non sono emerse differenze sostanziali 
rispetto alle conclusioni traile sulla base dei modelli unidimensionali. 



sido d'azoto prodotto negli oceani e nel 
suolo da batteri d erti tri fi canti che trasfor- 
mano nitriti e nitrati. Le quantità di pro- 
tossido di azoto prodotte globalmente 
dagli oceani e dal suolo sono note entro 
un ordine di grandezza: i valori più at- 
tendibili sono rispettivamente 1,3 x 10" 
chilogrammi all'anno e 2,4 x 10'° chilo- 
grammi all'anno. Se, come oggi sembra, 
la sorgente principale di protossido d'a- 
zoto è costituita dalle acque oceaniche, 
non appare probabile che l'uomo possa 
influenzare fortemente la produzione 
biologica e quindi la concentrazione di 
protossido d'azoto nell'atmosfera, nono- 
stante che tra i fattori che determinano 
la produzione di protossido di azoto nel 
suolo sia incluso il già esteso e sempre 
crescente impiego di fertilizzanti azotati. 
II corrispondente incremento nell'attività 
denitrificante dovrebbe produrre un au- 
mento nell'intensità delta sorgente micro- 
biologica di protossido di azoto con una 
conseguente deplezione dell'ozono che 
potrebbe arrivare anche al 30 per cento. 
È difficile stabilire una scala di tempi per 
la perturbazione dell'ozono dovuta allo 
impiego di fertilizzanti, poiché esso sol- 
leva problemi di enorme complessità, che 
investono oltre alla chimica dell'atmosfe- 
ra e alla meteorologia, l'agricoltura, la 
scienza del suolo, la microbiologia e l'o- 
ceanografia, 

D'altra parte, dalla quantità di protos- 
sido d'azoto prodotto in un anno e dalle 
concentrazioni misurate, si deduce un 
tempo di residenza nell'atmosfera di 10- 
-15 anni, molto più breve del tempo cor- 
rispondente alla rimozione dall'atmosfera 
mediante processi chimici e fotochimici 
noti; sembra pertanto debba esistere per 
il protossido d'azoto un altro pozzo at- 
mosferico, finora non identificato, che ne 
rimuova circa 10" chilogrammi all'anno. 

Effetto dei fluorocarburi 

Gli al om etani sono composti organici 
ali fatici degli alogeni di cui i clorometani 
(o clorocarburi) e i cloro fi uorometani (o 
cloro'fluorocarburi ovvero, più semplice- 
mente, fluorocarburi) costituiscono due 
importanti sottoclassi. Nel linguaggio co- 
mune, i componenti di quest'ultima sot- 
toclasse vengono spesso denominati im- 
propriamente e genericamente «Freon», 
dal nome commerciale adottato dalla più 
grossa industria del settore. Due sono i 
clorofluorocarburi principali, che da soli 
costituiscono circa il 90 per cento della 
produzione di Freon: il triclorofluorome- 
tano (CCIjF) e il diclorodifluorometano 
(CCliFj). Entrambi sono inodori e inco- 
lori, stabili sia chimicamente sia termica- 
mente, sono solubili in alcool e in etere 
ma non in acqua; inoltre non sono cor- 
rosivi né infiammabili né esplosivi, han- 
no elevata densità, bassa viscosità, bassa 
tensione superficiale e bassa temperatura 
di ebollizione: questa combinazione di 
proprietà li ha resi particolarmente adat- 
ti per essere usati sia come fluidi refri- 
geranti (specialmente il diclorodifluoro- 
metano) sia come propellenti di aerosol 
(soprattutto il triclorofluorometano). 



u 

_ 
a. 



I 



z 
5 




O 

£ 

5 
a. 



o 
§ 

8 
ì 

a 

Hi 

Z 



-15 £ 



Deplezione dell'ozono calcolata da Steven C. Wofsy, Michael B. McLìrov e Sieri D. Sze nel 
1975 in base a sei diversi modelli per la produzione futura di fluorocarburi. Il modello A 
assume che il consumo continui indefinitamente al ritmo del 1972, approssimativamente 
2,2 x 10* chilogrammi all'anno per il triclorofluorometano (CFCl,) e 3,5 x 10" chilogrammi 
all'anno per il diclorodifluorometano (CFiCIJ. 1 modelli B, C, e D considerano un incremento 
iniziale del 1D per cento annuo (corrispondente al raddoppio del consumo ogni 7 anni). Un 
incremento ancora maggiore (22 per cerno all'anno corrispondente al raddoppio del consumo ogni 
3.5 anni) viene adottato nei modelli fc" ed F . L'incremento iniziale viene Tatto continuare 
indefinitamente nei modelli D e F , mentre il consumo dei fluorocarburi viene fatto terminare 
bruscamente nei modelli B, C ed E rispettivamente negli anni 1978, 1995 e 1987. Per dare un'Idea del 
significalo di queste cifre, si può aggiungere che il direttore tecnico del Freon Products 
Laboratori' della Duponl, R.L. McCartln . ha previsto un 10 per cento di aumento all'anno per 
l'incremento della produzione mondiale di fluorocarburi, aggiungendo che tale valore potrebbe 
essere mantenuto indefinitamente. Il 10 per cento è comunque minore dell'incremento che si è 
verificalo tra il I960 e il 1972, quando l'aumento medio del triclorofluorometano fu del 22 per 
cento all'anno. La scaladi sinistra si riferisce al calcolo originale, quella di destra alla revisione 
effettuala successivamente dagli stessi ricercatori. La freccia sulla destra indica il valore previsto 
dal modello A per lo stalo stazionario. La linea SST mostra la deplezione dell'ozono da ossidi 
di azoto prodotta dalla flotta di aerei supersonici prevista per il 2000 dal direttore del CIAP. 



Altri fluorocarburi prodotti su larga sca- 
la sono il monoclorodiftuorometano 
(CHCIFi) e il diclorotetrafluoroetano 
(CiCl]F 4 ). Attualmente i fluorocarburi 
semplici vengono prodotti con processi 
continui in cui un ciorometano (per e- 
sempio CCI 4 ) viene fatto reagire con 
fluoruro d'idrogeno in presenza di cloru- 
ro d'antimonio come catalizzatore (si ve- 
da l'illustrazione a pagina 44, in alto). 11 
CCliFi venne preparato per la prima volta 
nel 1 928 dai laboratori della General Mo- 
tors durante la ricerca di nuovi fluidi fri- 
goriferi che non fossero tossici né infiam- 
mabili; poco dopo venne preparato anche 
il CCIjF. La produzione industriale iniziò 
nel 1931 e ha avuto un enorme sviluppo. 
Negli ultimi anni, l'impiego principale dei 
fluorocarburi è stato quello di propellenti 
di aerosol (circa il 50 per cento della pro- 
duzione USA nel 1972) che ha superalo 
anche l'impiego tradizionale negli appa- 
recchi di refrigerazione e di condiziona- 
mento dell'aria (28 per cento). Ne esisto- 
no poi ulteriori impieghi che assorbono 
il restante ^20 per cento della produzio- 
ne: il Freon viene usato infatti anche co- 
me agente schiumogeno, come solvente, 
ne! lavaggio a secco e come scambiato- 
re di calore. Per l'anno 1973 la produ- 
zione mondiale di fluorocarburi è sta- 



ta valutata intorno ai IO 9 chilogrammi. 
Con un modello diffusivo unidimen- 
sionale, Molina e Rowland calcolarono 
nel 1974 che se l'immissione dei fluoro- 
carburi nell'atmosfera fosse continuata 
indefinitamente al ritmo del 1972, la loro 
concentrazione avrebbe potuto raggiun- 
gere valori di saturazione da 10 a 30 
volte maggiori dei valori allora misurati 
nell'atmosfera. Inoltre, questi ricercatori 
misero in rilievo che il tempo necessario 
perché! fluorocarburi immessi nell'atmo- 
sfera al suolo giungano per diffusione 
nella stratosfera causa un notevole ritar- 
do nel manifestarsi dell'effetto distrutti- 
vo sull'ozono, cosicché anche cessando 
la loro immissione, l'ozono continuereb- 
be a diminuire per un lungo periodo e 
l'effetto resterebbe significativo per al- 
cuni decenni. Successivamente, nel 1975, 
gli stessi Rowland e Molina valutarono 
che i fluorocarburi avrebbero già causa- 
to una deplezione dell'ozono di circa l'I 
per cento che, secondo i loro calcoli, 
sarebbe potuta arrivare fino al 18 per 
cento se l'immissione dei e loro fi uorome- 
tani fosse continuata indefinitamente al 
ritmo del 1973. Dopo il lavoro originale 
di Molina e Rowland e quelli immediata- 
mente successivi già citati all'inizio del- 
l'articolo, sono state effettuate diverse 



52 



53 



revisioni della stima della deplezione di 
ozono da fluorocarburi, introducendo ri- 
sultati di nuove misure al posto di valori 
inizialmente fissati in base a stime o a 
pure ipotesi: con modelli simili a quelli 
impiegati originariamente, la deplezione 
di ozono prevista allo stato stazionario 
continuando indefinitamente a immette- 
re fluorocarburi nell'atmosfera a! ritmo 
del 1975 è circa del 7 per cento; siamo 
dunque a un valore inferiore alla mela 
della stima originale. D'altra parte, que- 
sta cifra non è definitiva e neppure mol- 
to significativa, non solo perché ci sono 
indicazioni che ulteriori misure porteran- 
no ad altre riduzioni anche di notevole 
entità, ma soprattutto perché il procedi- 
mento con cui si giunge a calcolare la 
deplezione è luti 'altro che soddisfacente. 



Nel 1975, Steven C. Wofsy, Michael 
B. McEIroy e Nien D. Sze della Harvard 
University hanno effettuato il primo cal- 
colo della deplezione dell'ozono in fun- 
zione del tempo sviluppando opportuna- 
mente il modello che McEIroy, Wofsy e 
altri avevano in precedenza impiegato 
per valutare l'effetto degli SST sull'ozo- 
nosfera. Essi hanno preso in considera- 
zione le variazioni nel tempo della con- 
centrazione di N,0, NO, NO*, CH«, CO, 
3 , CFjCU, CFClj, HCI, CIO, CIO, e 
CI, impiegando poi ben sei diversi mo- 
delli per simulare il futuro consumo glo- 
bale dei fluorocarburi con cui valutare il 
conseguente effetto depletivo sull'ozono- 
sfera. Accettando l'ipotesi di Molina e 
Rowland che i fluorocarburi siano elimi- 
nati dall'atmosfera soltanto per fotolisi 



0.5 - 



i.o - 



1,5 - 



o 
I 

ui 

o 
ce 

t 2.0 

O 

2 

o 

§ 

d 

tu 

ù 2.5 
ut 



I 
E 



3.0 



3.5 



4.0 



4.5 



RIDUZIONE PROBABILE 



STOP 




STOP\ 



1955 



1960 



1965 



1970 1975 

ANNO 



I960 



1985 



1990 



Deplezione dell'ozono da fluorocarburi calcolala da Paul J. Crutzen del National Center tur 
Almospheric Research nel 1975 assumendo che la qu ani ili di cloro fluorocarburi immessi 
nell'atmosfera aumenti del ID per cento all'anno a partire dalla mela del 1974 fino al momento 
in cui l'immissione viene bruscamente a cessare. Sono stati presi In considerazione due modelli 
ipolizzando. che la produzione dei clurofl idrocarburi cessasse rispctlivamenle alla fine del 1975 
e alla fine del 1978, La curva di «riduzione probabile» è slata ollenuta assumendo per 
ciascun parametro incerto il valore più probabile, menire l'ali m curva è siala calcolala con 
l'insieme dei valori estremi, in modo da rappresentare la massima deplezione prevedibile. 



ad altezze superiori a 25 chilometri, que- 
sti ricercatori partono dal presupposto 
che nello stato finale tutto il cloro dispo- 
nibile venga liberato e formi composti 
tipo acido cloridrico (HCI), monossido 
di cloro (CIO), biossido di cloro (ClOi) e 
cloro molecolare (CU) indicati collettiva- 
mente come «cloro dispari». Questo vie- 
ne trasportato verso il basso e successi- 
vamente eliminalo dall'atmosfera princi- 
palmente dalla pioggia o attraverso pro- 
cessi eterogenei nella bassa troposfera; in 
base a queste ipotesi, è stata cosi ottenu- 
ta sia la distribuzione di altezza sia la 
variazione nel tempo dell'ozono globale 
(si veda l'illustrazione a pagina 53). Tali 
risultati devono essere considerati a ca- 
rattere tentativo e preliminare come sot- 
tolineano gli slessi Wofsy, McEIroy e 
Sze, i quali mettono in evidenza i princi- 
pali motivi di incertezza nelle loro con- 
clusioni, dovuti al non aver tenuto conto 
esplicitamente della possibile rimozione 
del cloro stratosferico per mezzo di rea- 
zioni eterogenee e all'aver supposto che 
la durata della vita atmosferica dei fluo- 
rocarburi sia determinata unicamente 
dalla fotolisi. Se saranno identificati altri 
processi di rimozione dei fluorocarburi 
oppure ulteriori pozzi per il cloro dispa- 
ri nella stratosfera, l'impatto dei cloro- 
fluorometani sull'atmosfera e sulla bio- 
sfera si ridurrà in conseguenza. In effet- 
ti, pochi mesi dopo il toro calcolo origi- 
nale, inserendo nel loro modello i valori 
forniti da nuove misure della velocità di 
due importanti reazioni del cloro 
{Cl + C-ClO + O, e Cl + CKr-HCl + 
+ CHj), gli stessi ricercatori hanno trova- 
to che la deplezione dell'ozono risultava 
ridotta del 50 per cento. I nuovi valori di 
deplezione sono ancora indicati nell'illu- 
strazione di pagina 53 purché si faccia 
uso della scala segnata sulla destra del 
diagramma anziché di quella riportata a 
sinistra. Si vede così che tutti i modelli 
prevedono una deplezione dell'ozono di 
circa l'I per cento nel 1980 e che il 
modello più realistico, cioè il modello A, 
prevede una deplezione massima allo sta- 
to stazionario del 6,6 per cento: si ha 
dunque un ridimensionamento assai sen- 
sibile della previsione fatta da Rowland e 
da Molina. 

Nel 1975, un altro calcolo indipenden- 
te dell'evoluzione net tempo della deple- 
zione dell'ozono causata dai fluorocar- 
buri è stato effettuato da Crutzen, con 
l'ipotesi che la quantità dì Freon immes- 
sa nell'atmosfera aumenti del 10 per cen- 
to all'anno a partire dalla metà del 1974 
fino al momento in cui l'immissione vie- 
ne bruscamente a cessare; nel suo calcolo 
egli prende in considerazione due casi: 
nel primo, l'immissione dei fluorocarbu- 
ri ha termine alla fine del 1975; nel se- 
condo, essa ha termine alla fine del 1978. 
I risultati ottenuti sono indicati nell'illu- 
strazione di questa pagina, dove compaio- 
no due coppie di curve corrispondenti ri- 
spettivamente all'insieme dei valori più 
probabili per i vari parametri ancora in- 
certi e all'insieme dei valori estremi che 
conducono al valore massimo di deple- 
zione calcolabile: il rapporto tra deple- 



zione massima e deplezione probabile è 
superiore a 2. Per quanto riguarda la de- 
plezione più probabile, fermando l'ini* 
missione dei fluorocarburi alla fine del 
1975 si ha una diminuzione massima del- 
l'ozono dell' 1,2 per cento, mentre ritar- 
dando il termine di tre anni, tale diminu- 
zione sale all' 1,7 per cento; i corrispon- 
denti valori per il caso estremo sono ri- 
spettivamente 2,9 e 4,1 per cento. Questi 
risultati tengono conto dei nuovi valori 
delle velocità di reazione summenziona- 
te: l'effetto sul modello di Crutzen è 
quello dì ridurre la deplezione di un fat- 
tore ""1,4, mentre per quello di Wofsy, 
McEIroy e Sze si ha una riduzione di un 
fattore ~2. È interessante notare che, 
nei casi considerati, la deplezione massi- 
ma avviene circa 10 anni dopo che è ter- 
minata l'immissione dei fluorocarburi. 
Nel calcolo di Crutzen, un ritardo di tre 
anni nel porre fine a tale immissione 
conduce dunque a una deplezione addi- 
zionale probabile dell'ozono dello 0,5 
per cento, da aggiungersi alla deplezione 
attuale che Crutzen valuta di poco infe- 
riore all'! per cento. Queste cifre sono 
state sostanzialmente confermate dai ri- 
sultati di un lavoro successivo di Crutzen 
e Ivar S.A. Isaksen sempre del National 
Center for Atmospheric Research. 

Il calcolo più recente della deplezione 
dell'ozono da fluorocarburi è stato effet- 
tuato da Sze all'inizio del 1976, impie- 
gando il modello di Wofsy, McEIroy e 
Sze con i dati cinetici aggiornati all' 1 
gennaio 1976. Sze ha calcolato la deple- 
zione dell'ozono in due casi: nel primo, 
ha supposto che l'immissione dei fluoro- 
carburi abbia avuto termine il 31 dicem- 
bre 1975; nel secondo caso, ha supposto 
che essa abbia termine il 31 dicembre 
1978 mantenendo nel frattempo un in- 
cremento annuo del 12,5 per cento. 1 ri- 
sultati sono mostrati nell'illustrazione di 
questa pagina dalle curve A, e A,; tale fi- 
gura mostra anche, per un opportuno con- 
fronto, le curve B t e fl 2 ottenute con lo 
stesso modello e con le stesse ipotesi 
sull'immissione di fluorocarburi nell'at- 
mosfera, ma con i dati cinetici originali 
di Wofsy e collaboratori. Risulta dunque 
che la deplezione attuate è dello 0,5 per 
cento circa e che essa sarebbe aumentata 
fino a un massimo dello 0,9 per cento 
nel 1990 se l'immissione di fluorocarburi 
nell'atmosfera avesse avuto termine alla 
fine del 1975, mentre aumenterà fino a 
un massimo dell '1,4 per cento nel 1993 
se l'immissione cesserà alla fine del 1978: 
tre anni di ritardo, da impiegare in ulte- 
riori ricerche sui molteplici aspetti del 
problema, avranno dunque come conse- 
guenza una deplezione addizionale mas- 
sima dello 0,5 per cento, in accordo al 
recente calcolo di Crutzen già citato. Il 
confronto con i risultati ottenuti usando 
i dati cinetici di un anno prima mostra 
che la valutazione della deplezione è di- 
minuita di un fattore 2,5. 

Altre sorgenti antropogeniche di alogeni 

Oltre ai due principali clorofluorome- 
tani. l'atmosfera attuale contiene piccole 



quantità di diversi alometani tra i quali 
predomina il cloruro di metile (CHjCI) 
di origine naturale, prodotto da attività 
biologiche marine; lutti (o quasi) gli altri 
alocar buri sono invece di origine antro- 
pogenica: recentemente, è stala rivelata 
la presenza nell'atmosfera di tricloroeti- 
lene (CiHCI 3 ), tei racìoroeti lene (C,C1„) e 
metilcloroformio (CH 3 CC1 3 ) - ampiamen- 
te usati sia come solventi sia per il lavag- 
gio a secco - di tetracloruro di carbonio 
(CCU) - impiegato nella produzione dei 
fluorocarburi e in parte successivamente 
liberato nell'atmosfera; ne esistono forse 
anche sorgenti naturali - di cloroformio 
(CHClj) - attualmente impiegato in pre- 
valenza nella produzione della penicilli- 
na, del monoclorodìfluorometano e delle 
resine sintetiche - di cloruro di etile 
(C,H S C1) e bicloruro di etilene (CH.Cli). 
Il cloroformio immesso nell'atmosfera 
sembra provenire principalmente dai pro- 
cedimenti industriali a base di cloro con i 
quali viene imbiancata la pasta di legno 
impiegata nella produzione della carta: 
una stima della corrispondente produzio- 
ne globale di cloroformio è di 3 x 10" 
chilogrammi all'anno. 

Oltre ai clorometani, sono stati rivelati 
nell'atmosfera sia lo ioduro di metile 
(CH)I), di origine probabilmente natura- 
le, sia il bromuro di metile (CH,Br) di ori- 
gine antropogenica; occorre dunque con- 
siderare gli effetti sull'ozonosfera anche 
di tutte queste sostanze alogenaie, alle 
quali può essere estesa la teorìa sviluppa- 
ta per i fluorocarburi. Il fluoro, invece, 
non è pericoloso per l'ozonosfera, poi- 
ché gli atomi di fluoro liberati dalla fo- 



tolisi dei fluorocarburi si convertono ra- 
pidamente in fluoruro d'idrogeno (HF), 
un composto stabile nella stratosfera, co- 
sicché l'efficienza catalitica del fluoro 
nel distruggere l'ozono risulta minore di 
quella del cloro di un fattore > 10* in 
tutta la regione compresa tra 25 e 50 
chilometri. 

Attualmente, la sorgente principale di 
cloro antropogenico nella stratosfera è la 
fotodissociazione dei clorometani e dei 
clorofiuorometani; a questa si aggiungerà 
tra qualche anno l'impiego dello space- 
-shuttìe. Crutzen e Isaksen hanno effet- 
tuato nel 1975 un'analisi teorica dell'effet- 
to globale dei clorometani antropogenici, 
impiegando un modello unidimensionale: 
essi sono giunti alla conclusione che il te- 
tracloruro di carbonio ha già provocato 
una deplezione dell'ozono dello 0,8 per 
cento, di poco inferiore a quella prodotta 
dai fluorocarburi (0,9 per cento). Notevo- 
le risulta anche l'effetto depletivo del me- 
tilcloroformio (0,4 per cento), mentre rela- 
tivamente trascurabili appaiono gli effetti 
di C 2 CL CHCU, CHjCl, CH^Cl, e 
CHCIj, soprattutto perché questi com- 
posti sono molto reattivi nella troposfera 
e soltanto una piccola frazione delle 
quantità liberate nella bassa atmosfera 
può raggiungere la stratosfera. 

Un'altra sorgente sicura di cloro an- 
tropogenico sarà costituita nel 1979 dal- 
l'impiego della navetta spaziale (space- 
-shuttle): i suoi razzi a combustibile soli- 
do useranno infatti come ossidante il 
perclorato d'ammonio, cosicché i gas di 
scarico conterranno cloro dispari. Poiché 
la NASA ha fornito l'intensità prevista 



0,5 - 



S LO - 



o 

I 



f,B 



2.0 



2.5 



2 

Q 



3.0 



3.5 



4,0 





stof 






- 


^V STOP 

Ni 


Pv ■ 


A, 


STOP ^^^^^ 


__ A, 




- 




STOP \ ^--« 


a, 


- 


t 


1 i 


■~^— — B ' 





1970 



1975 



1980 



ISS5 



1990 



1995 



ANNO 



Deplezione dell'ozono calcolala da Nien I). Sze nel 1976 impiegando il modello, elaboralo 
insieme a Wofsy e McEIroy nel 1975, sia con i dal! cinetici aggiornali al primo gennaio 1976 
{curve \, e \,ì, sia con i (tali cinetici originali {curve B. e B,l. Delle due coppie, la prima curva 
si riferisce all'ipotesi che la produzione dei ci oro fluorocarburi sia terminata al 31 dicembre 
1975, la seconda si riferisce all'ipotesi che la produzione abbia termine al 31 dicembre 1978. 



54 



55 



della sorgente di cloro in funzione del- 
l'altezza, è stato possibile calcolare il 
rapporto di mescolanza del cloro con un 
modello di trasporto unidimensionale; 
previsioni dell'effetto di deplezione ef- 
fettuate da autori diversi mostrano che 
50 voli all'anno dello space-shuttle pro- 
durranno una deplezione dell'ozono di 
circa lo 0,5 per cento: si tratta dunque di 
un effetto non trascurabile che andrà 
studiato approfonditamente. Al momen- 
to attuale, non è stato ancora valutato 
quale sarà l'effetto dell'ossido di allumi- 
nio che pure verrà emesso dallo space- 
-shultte e che, finemente suddiviso in 
particelle, potrebbe anch'esso agire da ca- 
talizzatore per la distruzione dell'ozono. 
Uno studio approfondito della chimi- 
ca del bromo nell'atmosfera e del ruolo 
di questo elemento nell'equilibrio dell'o- 
zono stratosferico è stato effettuato da 
McElroy e Yuk L. Yung, anch'egli alla 



Harvard University, nel 1975. Anzitutto, 
essi hanno valutato che la massa globale 
di bromo gassoso immessa attualmente 
nell'atmosfera è di circa 1,1 X IO 5 chilo- 
grammi all'anno: di questa, circa l'80 
per cento è di origine naturale (aerosol 
marini), mentre la parte rimanente è per 
metà circa dovuta alla combustione della 
benzina e per l'altra metà al bromuro di 
melile impiegato in agricoltura come fu- 
migante. Sulla base di questi valori, sia 
pure ancora un po' incerti, Wofsy, 
McElroy e Yung hanno stimato che at- 
tualmente l'effetto totale di rimozione 
dell'ozono dovuto al bromo è ali 'incirca 
dello 0,3 per cento: il bromo è dunque 
capace di agire da catalizzatore per la di- 
struzione dell'ozono con un'efficienza 
ancora maggiore di quella del cloro, da- 
to che le concentrazioni di bromo misu- 
rate nella stratosfera indicano valori del- 
l'ordine di IO ppt (parti per trilione) in 



Atmosfera di puro ossigeno 


Atmosfera di azoto- Idrogeno-ossigeno 


0, + t™ — + O 


+ NO, - NO + 0, 


O, + hv -• + O, 


0, + NO - NO, + O, 


O, + hv (A<310nm) - O('D) + O, 


NO, + hv — NO + 


O + O, + M—0, + M 


NO, + OH + M - HNO, + M 


+ 0, - 0, + o. 


HNO, + hv - OH + NO, 




NO, + hv - NO, + 


Atmosfera di idrogeno-ossigeno 




H + 0, + M — HO, + M 


Atmosfera di ci oro-azoto- Idrogeno-ossigeno 


H + 0, - OH + 0, 


CI + 0, ■* CIO + O, 


+ OH - H + 0, 


CIO + - CI + 0, 


+ HO, - 0, + OH 


CIO + NO — CI +■ NO, 


OH + 0, - HO, + O, 


CI + 0H 4 ~ CH, + HCI 


HOi + 0, - OH + 20, 


CI + H, - H +■ HCI 


NO + HO, - OH + NO, 


CI + HO, - 0, + HCI 


CO + OH - H + CO, 


CI + H,0, - HO, + HCI 


0{'D) + H,0 - OH + OH 


CI + HNO, - HCJ + NO, 


O('D) + H, - H + OH 


+ HCI - CI + OH 


0["D) + CH< - CH, + OH 


OH + HCI - CI + H,0 


OH + CH, - CH, + Hfi 




CH, + 0, + M - CM,0, + M 




CH,0, + NO — CHfì + NO, 




CH,0, + HO, -*CH,0,H + 0, 




H,00 + hlr - HCO + H - CO + H, 




H,CO + hv - H, + CO 




OH + HO, - 0, + H,0 




OH + HNO, - NO, + H,0 





Nella tabella sono indicale le reazioni fondamentali che determinano la concentrazione del- 
l'ozono nella stratosfera secondo Marcel Nicole! ilei l'I ri stimi d'Aéronomie Spai kilt- di Bruxelles. 
La maggior parte degli ai inali modelli chimici della stratosfera impiegano da SO a 60 reazioni per ef- 
fettuare lo studio quantitativo dell'ozono. Il Climalic Impact Committcc, per esempio, ne elenca 57. 



volume, inferiori per un fattore > 10 alle 
concentrazioni del cloro. Il bromo natu- 
rale può dunque costituire una compo- 
nente secondaria ma non trascurabile dei 
meccanismi che regolano l'equilibrio na- 
turale dell'ozono. Ma se oggi la compo- 
nente depletiva dovuta al bromo antro- 
pogenico appare trascurabile (la combu- 
stione della benzina contribuisce con un 
effetto stimato dello 0,02 per cento), l'in- 
cremento previsto per l'impiego del bro- 
muro di metile come fumigante agricolo 
potrebbe apportare rilevanti danni all'o- 
zonosfera. Il punto più critico per un 
calcolo quantitativo dell'effetto di deple- 
zione del bromuro di metile è costituito 
dalla mancanza di dati adeguati per la 
velocità dejla reazione fondamentale con 
la quale il bromuro di metile viene elimi- 
nato dall'atmosfera: OH + CHjBr— 
^•HjO + CHiBr. Occorrerebbe inoltre 
conoscere l'andamento futuro dell'impie- 
go di bromuro di metile: la stima più 
probabile corrispondente a un incremento 
annuo limitato al 7 per cento indica una 
deplezione, tutto sommato abbastanza 
irrilevante, che raggiungerebbe 1"1 per 
cento soltanto verso il 2010 arrivando poi 
al 3 per cento nel 2030. 

Incertezze nella valutazione della 
deplezione antropogenica dell'ozono 

Per calcolare gli effetti sull'ozono del- 
l'introduzione nell'atmosfera di sostanze 
antropogeniche, siano esse gli ossidi d'a- 
zoto, i fluorocarburi o il bromuro di me- 
tile prodotto dai fumiganti, è necessario 
impiegare dei modelli dell'atmosfera in 
cui vengono simulati i principali processi 
dinamici, chimici e fotochimici che han- 
no luogo nell'atmosfera stessa. Data la 
complessità dei fenomeni atmosferici, ta- 
le simulazione non può avvenire in labora- 
torio: occorre quindi servirsi della simu- 
lazione numerica, cioè bisogna fare un 
modello matematico dei processi atmo- 
sferici con l'aiuto di elaboratori elettro- 
nici veloci. È importante che, in media, i 
modelli dell'atmosfera simulino o descri- 
vano i processi fotochimici, chimici e 
fisici che hanno luogo a tutte le scale. Le 
reazioni chimiche attualmente note che 
influiscono sull'equilibrio dell'ozono nel- 
la stratosfera sono oltre 250: la tabella di 
questa pagina contiene un elenco di 40 
reazioni considerate d'importanza fonda- 
mentale da Marcel Nicolet, aeronomo di 
fama mondiale. Oltre alle reazioni chi- 
miche, giocano un ruolo essenziale nella 
distribuzione di equilibrio dell'ozono an- 
che i processi di trasporto: per sviluppa- 
re un sistema chimico semplice in grado 
di descrivere la distribuzione dell'ozono 
nella stratosfera, occorre considerare, ol- 
tre alle reazioni della tabella di questa pa- 
gina, anche i processi di produzione del- 
l'idrogeno molecolare, i vari meccanismi 
che portano l'ossido d'azoto nella stra- 
tosfera e i processi di dissociazione dei 
composti naturali e antropogenia del clo- 
ro. Infine, occorre anche tener conto 
degli scostamenti dalle condizioni di e- 
quilibrio chimico, specialmente per H,, 
CH„ NO, HNO, e HCI. per i quali è 



importante il trasporto; come è stato 
messo in evidenza da Nicolet, non è inol- 
tre sufficiente considerare condizioni di 
stato stazionario neppure introducendo 
il trasporto nella bassa stratosfera, poi- 
ché le variazioni della tropopausa sono 
molto importanti. 

Uno dei punti più critici nei modelli 
che vengono impiegati per studiare la de- 
plezione dell'ozono dovuta a cause an- 
tropogeniche sta nel l'im postazione del 
calcolo degli effetti del trasporto atmo- 
sferico dei costituenti in tracce che entra- 
no nel problema. Per valutare tali effet- 
ti, vengono impiegati modelli numerici 
di trasporto atmosferico, che possono 
essere molto diversi tra loro per cui spes- 
so è difficile valutare attendibilmente la 
natura e l'ordine di grandezza delle in- 
certezze presenti. I modelli più esaurienti 
di trasporto atmosferico sono quelli for- 
niti da modelli di circolazione generale 
tridimensionale della troposfera e della 
stratosfera, nei quali si fa un tentativo di 
simulare la circolazione nell'atmosfera - 
e conseguentemente i venti del trasporto 
- sulla base delle leggi fondamentali della 
fisica con un minimo di condizioni fissa- 
te empiricamente. Tali modelli hanno 
dimostrato di essere in grado di riprodur- 
re le caratteristiche essenziali della circola- 
zione atmosferica su grande scala. Quan- 
do sono stati impiegati nella risoluzione 
di diversi importanti problemi concer- 
nenti i traccianti atmosferici, essi hanno 
avuto successo in quanto sono stati ca- 
paci di riprodurre buona parte della com- 
ponente fondamentale dell'andamento os- 
servato dell'ozono e della polvere ra- 
dioattiva. Tuttavia, i risultati forniti da 
questi modelli per calcoli quantitativi di 
trasporto atmosferico contengono anco- 
ra una incertezza che può arrivare finan- 
che al 50 per cento. Numerose sono le 
cause per cui questi modelli teoricamente 
cosi esaurienti contengono ancora incer- 
tezze cosi significative: anzitutto, non si 
è ancora in grado di descrivere rigorosa- 
mente alcuni processi fisici e le loro inte- 
razioni; i procedimenti numerici adottati 
dai diversi studiosi per risolvere le equa- 
zioni che governano i fenomeni spesso 
differiscono talché i risultati ottenuti pos- 
sono dipendere dal tipo di procedimento 
scelto. Inoltre, i risultati ottenuti con un 
dato modello sono legati alla risoluzione 
spaziale adottata, che è limitata di fatto 
dall'onere del calcolo che aumenta enor- 
memente al crescere della risoluzione 
scelta. Occorrerebbe dunque essere in 
grado di specificare adeguatamente i pro- 
cessi fisici che avvengono su scale che 
restano al di sotto della risoluzione spa- 
ziale adottata, ma purtroppo questo non 
è ancora possibile, cosicché tanto più 
bassa è la risoluzione spaziale usata, tan- 
to più grande è il rischio che i risultati 
ne siano significativamente distorti. 

Nei modelli di trasporto bidimensiona- 
li si mantengono le coordinate della lati- 
tudine e della quota, ma non vengono 
considerate le variazioni con la longitu- 
dine. Poiché i moti dipendenti dalla lon- 
gitudine, i vortici, rappresentano uno dei 
principali meccanismi di trasporto nel- 



l'atmosfera, si ha in questi modelli una 
ulteriore assai rilevante incertezza a cau- 
sa della necessità di esprimere il traspor- 
to dovuto ai vortici in termini di quanti- 
tà mediate zonalmente, in base a varie 
ipotesi sulla diffusione: i modelli tridi- 
mensionali indicano che tali ipotesi sono 
spesso in contrasto con la realtà. Ciò 
avviene perché la circolazione meridio- 
nale e i vortici sono due processi stretta- 
mente correlati, che normalmente opera- 
no in opposizione. Il confronto tra i mi- 
gliori modelli bidimensionali e quelli tri- 
dimensionali indica che la difficoltà di 
esprimere l'accoppiamento tra circolazio- 
ne meridionale e vortici, unita alle incer- 
tezze negli insiemi di dati usati per cali- 
brare i coefficienti di scambio, può con- 
durre a distribuzioni previste che sono in 
errore anche di un fattore 2. 

I modelli dinamici unidimensionali, in- 
fine, sono stati ampiamente usati perché 



te devono necessariamente ricorrere a 
una dinamica più semplificata. In questi 
modelli unidimensionali vengono elimi- 
nate entrambe le coordinate orizzontali, 
o attraverso una media sistematica op- 
pure ignorandole completamente: così, 
l'unico trasporto che rimane è una me- 
dia netta che si assume sia collegata ai 
gradienti medi e a coefficienti di scambio 
appropriatamente scelti (coefficienti di 
diffusione). I più attendibili tra i modelli 
unidimensionali esistenti contengono ge- 
neralmente coefficienti dì scambio scelti 
in modo da essere in accordo con il 
comportamento medio globale (e talvol- 
ta anche locale) di tre costituenti atmo- 
sferici presenti in tracce e precisamente 
anidride carbonica radioattiva (C"Oj), 
protossido d'azoto (N,0) e metano 
(CHi). Per l'anidride carbonica radioat- 
tiva, la sua rimozione dalla stratosfera è 
dovuta soltanto ai processi di trasporto. 



| 

1 

o 







10 3 10' 10' 

COEFFICIENTI DI DIFFUSIONE VORTICOSA (CENTIMETRI QUADRATI At SECONDO) 



10« 



Il grafico riporta i profili verticali del coefficiente di diffusione vorticosa. Impiegati in alcuni 
modelli atmosferici unidimensionali elaborati da M.B. McEIroj. S.C. Wofsy e collaboratori nel 
I974 Urano continuo in colore intenso); da D.M. Hunten nel 1974 Urano continuo in nero); da 
PJ. Crutzen nel 1974 (tratteggiato in nero); da R.C. Whitten e R.P. Turco nel 1973 Uratteggiato in 
colore chiaro); da R.W. Stewart nel 1973 {tratto continuo in colore chiaro); da T. Sfaimazaki e T. 
Ogawa nei 1974 Uratteggiato in colore intenso); da J.S. Chang e collaboratori nel 1973 Un grigio). 



essi permettono una drastica semplifica- 
zione del problema del trasporto, con- 
sentendo cosi di sviluppare molto più 
dettagliatamente il modello dei processi 
chimici. Infatti, ì modelli che vengono 
impiegati nello studio dei problemi di 
deplezione dell'ozono hanno diversa 
complessità sia dal punto di vista dina- 
mico, sìa dal punto di vista delle reazioni 
chimiche inserite: avviene quindi che i 
modelli più dettagliati dinamicamente so- 
no anche i più grossolani dal punto di 
vista fotochimico e chimico, mentre in- 
vece i modelli più dettagliati chimicamen 



poiché la vita media del carbonio 14 è di 
5600 anni. Dopo l'immissione di anidri- 
de carbonica radioattiva da sorgenti pun- 
tiformi individuali (collaudo dì ordigni), 
la tendenza all'uniformità consente la 
determinazione dei coefficienti di diffu- 
sione vorticosa da successive campiona- 
ture bidimensionali. Per quanto riguarda 
il protossido d'azoto e il metano, si ipo- 
tizza l'esistenza di sorgenti naturali allo 
stato stazionario e, poiché sono note le 
reazioni chimiche, sì ottengono gradienti 
verticali che possono essere interpretati 
in termini di rimescolamento verticale. 



56 



57 



Accurate calibrazioni di coefficienti di 
scambio unidimensionali ricavati da Que- 
sti insiemi dì dati mostrano accordo nelle 
loro previsioni entro un fattore di 2 o 3 
fino a un'altezza di circa 30 chilometri: 
le differenze sono in parte dovute alle 
incertezze esistenti nei vari insiemi di 
dati. Al di sopra dei 30 chilometri i dati 
dei traccianti sono meno attendibili; i- 
noltre, S'uso di modelli di circolazione 



20 



coefficienti sono spesso indicative. Un 
altro importante confronto è stato fatto 
nel 1975 da Robert C. Whitten e collabo- 
ratori che hanno usato il modello foto- 
chimico bidimensionale dell'Ames Re- 
search Center della NASA per calcolare 
le distribuzioni spaziali delle varie specie 
chimiche nella stratosfera impiegando di- 
versi insiemi di valori per i coefficienti di 
trasporto. I risultati ottenuti hanno mo- 



s 

ce 

UJ 
£L 

HI 

_l 

I 



O 

s 



■3 




MB. McELBOY 
R.W. STEWART 

T. SHIMAZAKI 
P. J. CRUTZEN 
J.S. CHANG 



R.C. WHITTEN 



5 10 

TEMPO A PARTIRE DALL'IMMISSIONE (ANNI) 



I valori di deplezìone dell'ozono da trasponi supersonici (SST) come sono stati calcolati da J.S. 
Chang, tulli con lo stesso procedimento e a parila di ogni altro parametro, ma impiegando i 
diversi profili del coefficiente di diffusione vorticosa i h. i riprodotti nella figura di pagina 57. 



generale per descrivere processi in questa 
regione è ancora in uno stadio molto 
preliminare, talché l'incertezza nei coef- 
ficienti di scambio al di sopra di 30 chi- 
lometri è molto grande, di un fattore 
dell'ordine di IO: ciò è confermato dal- 
l'ampia gamma di coefficienti usati per 
questa regione nei vari modelli unidimen- 
sionali (si veda l'illustrazione a pagina 
57). In generale, i risultati di esperimenti 
effettuati con i traccianti indicano l'esi- 
stenza di un minimo nell'intensità del 
rimescolamento verticale entro i primi 5 
chilometri al di sopra della tropopausa, 
con valori del coefficiente di diffusione 
vorticosa compresi tra 3 x IO 3 e IO 1 cen- 
timetri quadrati al secondo. Ad altezze 
più elevate, al di sopra dei 20-25 chilome- 
tri, si assume che il coefficiente di dif- 
fusione aumenti con l'altezza di un fat- 
tore da 10 a 100. Il confronto con un 
modello di trasporto tridimensionale ha 
indicato che Ì coefficienti di scambio uni- 
dimensionali da impiegare possono va- 
riare significativamente a seconda del 
problema: variazioni di un fattore 2 nei 



strato che anche modelli di trasporto in 
grado di descrivere accuratamente la di- 
stribuzione del carbonio radioattivo im- 
messo nella stratosfera da esplosioni nu- 
cleari di prova possono fornire previsio- 
ni assai mediocri per la distribuzione di 
costituenti atmosferici chimicamente at- 
tivi come l'ozono. 

L'uso di modelli unidimensionali com- 
porta un'ulteriore sorgente d'incertezza 
anche nel caso che la media globale nel- 
l'atmosfera di una certa quantità (per 
esempio l'ozono totale) sia stata deter- 
minata correttamente: se avviene una de- 
p lezio ne dell'ozono per cause antropoge- 
niche, tali modelli non sono infatti in 
grado di fornire nessuna informazione 
sull'andamento effettivo della deplezìone 
in funzione della latitudine e della longi- 
tudine. Questa è una grave limitazione 
dei modelli perché le conseguenze per 
l'uomo possono essere notevolmente di- 
verse a seconda di come è distribuita sul 
globo la deplezìone dell'ozono. Certa- 
mente occorrono dunque modelli più 
completi. Attualmente, le opinioni sul- 



l'attendibilità dei risultati ottenuti dalle 
teorie di deplezìone dell'ozono sono ab- 
bastanza divergenti, specialmente per 
quanto riguarda fertilizzanti e fluorocar- 
buri. In realtà, i metodi impiegati per 
calcolare l'entità degli effetti prodotti 
sull'ozonosfera dalle varie sorgenti an- 
tropogeniche si basano in gran parte sui 
modelli atmosferici sviluppati nel corso 
del C1AP: i modelli Freon-ozono sono 
naturalmente più complessi rispetto a 
quelli utilizzati per gli SST, dato che oc- 
corre aggiungere una ventina di reazioni 
riguardanti il cloro e i suoi composti. Ma 
il problema del Freon è reso ancora più 
complesso da ulteriori elementi di incer- 
tezza, tra ì quali spicca l'attuale impossi- 
bilità di conoscere il tempo di residenza 
nell'atmosfera dei due principali fluoro- 
carburi, perché le misure della loro con- 
centrazione nell'atmosfera non sono an- 
cora in grado di distinguere tra un perio- 
do di vita di 10 anni (che ridurrebbe di 
un fattore 7 l'entità della deplezìone del- 
l'ozono calcolata da Crutzen e Sze a cui 
abbiamo fatto finora riferimento) e un 
periodo di vita infinito (corrispondente 
all'unico pozzo rappresentato dalla foto- 
lisi stratosferica). Nel maggio scorso è 
stato scoperto che il nitrato di cloro, un 
composto di cui si ignorava completa- 
mente la presenza nella stratosfera, po- 
trebbe avere un effetto essenziale per 
l'equilibrio dell'ozono: si tratta di un 
fatto indicativo che richiama l'attenzione 
sul dubbio che nei modelli chimici non 
siano state inserite tutte le reazioni signi- 
ficative per l'ozono, tanto che la Natio- 
nal Academy of Sciences ha sospeso la 
pubblicazione del «Rapporto» che dove- 
va costituire la base per una decisione 
del governo americano sulle limitazioni 
all'impiego dei fluorocarburi. 

Il rapporto è finalmente uscito nel set- 
tembre 1976: esso ha concluso che, con- 
tinuando a immettere indefinitamente 
fluorocarburi nell'atmosfera al ritmo del 
1973, la riduzione più probabile dell'o- 
zono, una volta raggiunto Io stato sta- 
zionario, dovrebbe essere compresa tra il 
6 e il 7,5 per cento: è stato calcolato che 
il tempo necessario perché la deplezìone 
dell'ozono raggiunga un valore pari a 
metà del valore allo stato stazionario 
(cioè il 3-^3,75 per cento) è compreso 
approssimativamente tra 40 e 50 anni. 
Le incertezze nei vari parametri sono 
perà tali che, per un livello di confidenza 
del 95 per cento, la deplezìone dell'ozo- 
no allo stato stazionario potrebbe essere 
compresa tra il 2 per cento e il 20 per 
cento. A causa delle attuali insufficienze 
nelle basi dei calcoli e della scarsa entità 
dell'effetto depletivo previsto per un ul- 
teriore biennio d'impiego dei fluorocar- 
buri, la commissione di esperti che ha 
redatto il rapporto ha deciso di racco- 
mandare al governo statunitense di non 
intraprendere per il momento la regola- 
mentazione dell'impiego di questi pro- 
dotti, rinviando tale azione, se sarà an- 
cora necessaria, a quando (prevedibil- 
mente tra circa 2 anni) saranno state ri- 
dotte in maniera significativa le incertez- 
ze di base. 



58 



Correnti convettive 
nel mantello terrestre 

// movimento uniforme delle zolle della crosta terrestre indica che 
esistono correnti convettive su vasta scala. Studi di laboratorio 
mostrano che dovrebbero esistere anche correnti su scala più piccola 

di D.P. McKenzie e Frank Richtcr 



Da lungo tempo i geofisici hanno i- 
potizzato che le rocce del mantel- 
lo terrestre, cioè di quella profon- 
da zona plastica sottostante la crosta 
rìgida della Terra, vengano lentamente 
rimescolate in vaste celle convettive, che 
in certe zone risalgono e in altre si raf- 
freddano e sprofondano. Nell'ultima 
dozzina di anni, da quando la teoria 
della tettonica a zolle è stata universal- 
mente accettata, l'esistenza della conve- 
zione è apparsa evidente su scala globa- 
le. La crosta terrestre è costituita di vaste 
zolle semirigide che si accrescono a par- 
lire dalle dorsali dei fondi oceanici, dove 
la roccia fusa risale, e che possono poi 
rituffarsi nel mantello in prossimità delle 
profonde fosse oceaniche. Il moto di una 
zolla dalla dorsale medio-oceanica alla 
fossa costituisce la parte visibile della 
circolazione convettiva. La massa della 
zolla che sprofonda dev'essere conserva- 
ta, e il cerchio è richiuso da una corrente 
profonda di materiale in senso inverso, 
dalla fossa alla dorsale. Siccome te di- 
mensioni orizzontali della cella corri- 
spondono a quelle della zolla, l'intera 
cella viene spesso indicata come circola- 
zione a grande scala. 

Per quanto oggi la circolazione a gran- 
de scala possa venire accuratamente de- 
scritta, e quasi certamente essa rappre- 
senti una forma di convezione termica 
nel mantello terrestre, ancora non esiste 
una teorìa in grado di spiegare adeguata- 
mente in che modo la circolazione può 
persistere per decine di milioni di anni. 
Alcuni tentativi di risolvere questo pro- 
blema con l'aiuto di esperimenti di labo- 
ratorio e di modelli al calcolatore hanno 
fornito delle prove della possibile esisten- 
za di convezione a scala più piccola, in 
cui le celle convettive avrebbero dimen- 
sioni orizzontali paragonabili al loro 
spessore: circa 700 chilometri. Gli esperi- 
menti indicano che tali celle potrebbero 
spiegare il flusso di calore che si ha in 
parti amiche delle zolle oceaniche, che è 
più grande di quanto ci si potrebbe a- 



spettare, e forse potrebbero anche spie- 
gare le anomalie gravimetriche dei fondi 
oceanici. Le celle convettive a piccola 
scala potrebbero anche dar luogo alle 
colonne ascensionali dì materiale caldo 
che creano le catene oceaniche di vulcani 
come le isole Hawaii; infine gli esperi* 
menti indicano che le celle convettive a 
piccola scala potrebbero essere allineate 
in lunghi cilindri paralleli sotto le zolle 
che si muovono con la stessa velocità 
della zolla Pacìfica. Però in laboratorio 
non è stato ancora possìbile simulare la 
convezione a grande scala, che appare 
evidente dal moto complessivo delle zolle. 

/ moti delle zolle 

Fra tutti i tentativi di comprendere le 
forze che spostano le zolle, quello più 
diretto è partire da modelli teorici dei 
moti delle zolle di tutto il mondo, in 
modo da porre alcuni lìmiti ai possibili 
meccanismi del movimento. Quasi tutti i 
grandi terremoti vengono innescati dai 
moto delle zolle, e quindi l'energìa libe- 
rata nei terremoti dev'essere fornita dalle 
forze che spostano le zolle. Sono state 
avanzate molte ipotesi sulla sorgente di 
questa energia, ma poche forniscono una 
spiegazione adeguata. Gli unici meccani- 
smi in grado dì fornire facilmente un'e- 
nergia sufficiente sono il flusso convetti- 



vo nel mantello e il processo di differen- 
ziazione per cui il ferro presente nel man- 
tello si è separato dagli altri elementi ed 
è sprofondalo, formando cosi il nucleo 
terrestre. Come vedremo, la convezione 
termica può dar luogo a una grande 
varietà di strutture di flusso; le belle 
strutture esagonali delle celle convettive, 
tanto comuni nei libri di testo, in natura 
sono rarissime. 

Convezione termica significa che il ca- 
lore viene trasportato da un moto coe- 
rente del materiale, piuttosto che per ir- 
raggiamento o per diffusione. Nel tipo di 
convezione che interessa la tettonica a 
zolle il calore viene trasportato verso 
l'alto e il flusso è causato dalla differen- 
za di densità fra il fluido caldo e quello 
freddo. Anche le stime più prudenti delle 
forze di densità risultanti dal moto delle 
zolle danno valori assai più grandi che 
per le forze in gioco nei terremoti. Que- 
sto argomento ha convinto molti geofisi- 
ci, ma di certo non tutti, che il moto 
delle zolle è provocato da qualche tipo di 
convezione. 

I dati geofisici possono dirci qualcosa 
sulla profondità a cui si estende il flusso 
convettivo. Ancora non è mai stato de- 
terminato con precisione l'ipocentro di 
un terremoto a profondità maggiore di 
700 chilometri. Inoltre la placca che si 
affonda sotto l'arco di isole, dove le 



Immusir-) di celle convettive visle dall'alto, in un'apparecchiatura costruita in laboratorio per 
simulare te condizioni che possono produrre la convezione nella parte superiore del mantello. 
In questa apparecchi attira le strutture sono rese visibìli illuminando dal basso il Fluido 
trasparente e viscoso (si vedano le illustrazioni a pagina 64). Per rifrazione i raggi vengono 
allontanali dalle zone calde e avvicinali a quelle fredde, dando luogo a strutture chiare e scure. 
Le variazioni delle condizioni di laboratorio responsahili delie diverse strutture possono riassu- 
mersi in termini di numero di Rayleigh, una quantità adimensionale proporzionale alla diffe- 
renza di temperatura Tra gli estremi dello strato fluido e a diversi altri parametri, fra cui lo 
spessore dello strato. Quando il numero di Rayleigh è minore di 1700 circa non si ha 
convezione. Quando il numero di Rayleigh è fra 1700 e circa 20 000 la convezione prende la 
forma di cilindri paralleli bidimensionali, come mostra la (olografia in alto nella pagina a fronte. 
Per numeri di Rayleigh fra 20 000 e 100 000 si formano due gruppi di cilindri perpendicolari 
(fotografia al centro). Questa slruitura è delia flusso bimodale. Per numeri di Rayleigh ancora 
più grandi il flusso assume una intricata struttura raggiata in cui, da alcuni ceni ri multipli, s'ir- 
raggiano dei piani di fluido caldo ascendente e di fluido freddo discendente (fotografia in basso), 



1 




60 



61 



zolle convergono, è in compressione a 
tutte le profondità se il suo bordo si 
spinge a profondità superiori ai 600 chi- 
lometri e al contrario è in tensione a pro- 
fondità inferiori ai 300 chilometri se il 
suo bordo non arriva a 300 chilometri. 
La spiegazione più semplice di questo 
comportamento è che il moto della zolla 
incontra una grande resistenza a partire 
da 600 chilometri e oltre i 700 chilometri 
la zolla non riesce a penetrare. Proba- 
bilmente l'aumento di resistenza è asso- 
ciato a un cambiamento delta struttura 
cristallina dei silicati di ferro e di magne- 
sio, che avviene a questa profondità. In 
ogni modo, qualsiasi ne sia la spiegazio- 
ne, il comportamento della zolla che 
sprofonda fa proprio pensare che la cir-. 
colazione convettiva, di cui le zolle costi- 
tuiscono una parte, sia limitata a una 
zona profonda 700 chilometri. 

È difficile dire molto di più sulla for- 
ma del flusso in base alle sole osserva- 
zioni geofisiche. Le zolle sono grandi e 
resistenti e i loro moti rigidi nascondano 
i più complessi moti tridimensionali del 
mantello sottostante. È molto più diffi- 
cile studiare la convezione nel mantello 
che la circolazione dell'oceano o dell'at- 
mosfera. Non esiste una sonda capace di 
perforare una zolla; le trivellazioni più 
profonde ne raggiungono soltanto il 10 
per cento superiore. E anche se si riuscis- 
se a penetrare nel mantello ci sarebbe il 
problema di misurare correnti convettive 



che si muovono a velocità di qualche 
centimetro all'anno appena. 

/ numeri di Rayieigh e dì Reynolds 

Per fortuna i fisici matematici si sono 
interessati alla convezione fin dal XIX 
secolo e pertanto il comportamento delle 
correnti convettive è abbastanza cono- 
sciuto. Forse la scoperta più sorprenden- 
te è quanto può essere complicato il flus- 
so convettivo anche in uno strato fluido 
riscaldato uniformemente dal basso. Sen- 
za dubbio la convezione nel mantello 
terrestre è ancora più complicata. 

Lord Rayieigh e Osborne Reynolds die- 
dero alcuni dei contributi principali alla 
descrizione matematica del flusso dei 
fluidi e della convezione. È in gran parte 
grazie alla loro opera che è possibile 
descrivere ogni tipo di flusso convettivo 
con soli pochi numeri, che hanno preso i 
nomi di Rayieigh e di Reynolds, e che 
sono combinazioni adimensionali di vari 
parametri fisici, quali la viscosità, la con- 
duttività termica e l'espansione termica. 
Grazie a questi numeri si può simulare la 
convezione nel mantello terrestre con uno 
strato fluido dello spessore di pochi cen- 
timetri; infatti la convezione dipende dal- 
l'insieme delle proprietà dello strato flui- 
do, e non da queste proprietà prese sin- 
golarmente. Il numero di Rayieigh di- 
pende in gran parte dal rapporto fra il 
cubo della profondità e la viscosità, e 



quindi si può rappresentare un sistema 
quale il mantello superiore, che ha una 
viscosità altissima e una profondità di 
varie centinaia di chilometri, con un flui- 
do a viscosità moderata. Si può anche 
accelerare il passaggio del tempo, in mo- 
do che dei processi che sulla Terra dure- 
rebbero milioni di anni, nel modello di 
laboratorio si compiono in poche ore. 

II numero di Rayieigh è particolarmen- 
te signi fi qat ivo per descrivere la conve- 
zione; è proporzionale alla differenza dì 
temperatura fra la base e la sommità del 
fluido e a diversi altri parametri. In un 
fluido in convezione il numero di Ray- 
ieigh è praticamente proporzionale al 
rapporto fra il tempo necessario a riscal- 
dare uno strato di fluido per conduzione 
termica e il tempo impiegato da una par- 
ticella del fluido a compiere un giro com- 
pleto lungo la cella convettiva. Un esem- 
pio familiare di un fluido in convezione 
con alto numero di Rayieigh è dato dal- 
l'acqua posta a riscaldare in una pentola 
ma non ancora in ebollizione. 

Il numero di Reynolds non riguarda il 
calore, ma la quantità di moto. Esso mi- 
sura il rapporto fra le forze che accelera- 
no il fluido e le forze viscose che si 
oppongono al moto. Quando il numero 
di Reynolds è basso l'inerzia del fluido 
non è molto importante e il flusso è ab- 
bastanza semplice. Se invece questo nu- 
mero è grande, è probabile che si formi- 
no dei vortici e il flusso può diventare 




Il molo della dozzina circa di /olle in cui è suddivisa la crosta terrestre 
fornisce valide prove del resistenza della convezione nel mantello. 
Nuovo materiale si aggiunge alle zolle per risalita di roccia fusa dalle 
spaccature del fondo oceanico che segnano il centro dj una dorsale 
che si estende con continuità per circa 65 000 chilometri attraverso gli 
oceani Atlantico, Indiano e Pacifico. Le zolle si immergono di nuovo 
nel mantello nelle zone di subduzione. che coincidono con te fosse 



oceaniche. Le frecce rivolte in fuori indicano le zone in cui le zolle si 
allontanano dalle dorsali; i numeri indicano la velocità relativa in 
centimetri all'anno. La zolla indo-australiana, quella pacifica e quella 
di Nazca sono le più veloci. Le frecce convergenti indicano le zone in 
cui le zolle si muovono l'una verso l'altra, in genere in coincidenza 
delle fosse. L'Himalaya è un'eccezione molto importante. Le zolle 
possono anche scorrere l'una contro l'altra lungo faglie trasformi. 



turbolento ed estremamente complesso. 
Esempi di flusso con alto numero di Rey- 
nolds sono dati dal getto d'acqua di un 
rubinetto o da un ruscello alpino che si 
precipita sulle rocce. Un altro esempio 
sono le perturbazioni atmosferiche. Tali 
tipi di flusso sono difficili da descrivere. 

Il materiale viscoso che fluisce nel 
mantello terrestre ha un numero di Rey- 
nolds piccolissimo, dell'ordine di 10"'° e 
la quantità di moto del flusso è trascura- 
bile. Ci si potrebbe aspettare che la con- 
vezione nel mantello sia fortemente in- 
fluenzata dalla rotazione terrestre, ma si 
può dimostrare che la rotazione non ha 
alcun effetto diretto. Il numero di Ray- 
ieigh è assai più significativo perché è 
molto grande. Per quanto si abbiano sti- 
me diverse, il limite inferiore è circa IO 6 , 
e il numero potrebbe essere maggiore di 
un fattore 10 o più. Si possono facilmen- 
te riprodurre tali numeri di Rayieigh in 
laboratorio riscaldando un fluido quale 
glicerina o olio siliconico in uno strato 
dello spessore di qualche centimetro con- 
finato da due piastre. 

Quando in un sistema di questo tipo il 
numero dì Rayieigh è minore di 1708, la 
convezione termica non può aver luogo; 
il calore viaggia direttamente per condu- 
zione dalla piastra inferiore caJda alla 
piastra superiore fredda. Se nel fluido si 
crea un piccolo disturbo, col tempo esso 
svanisce. Quando si fa aumentare il nu- 
mero di Rayieigh da 1708 fino a circa 
20 000 il sistema diventa instabile e pic- 
coli disturbi possono trasformarsi in cel- 
le convettive. La forma delle celle e la 
loro disposizione orizzontale nello stra- 
to, detta la forma piana della convezio- 
ne, dipendono dalla forma del disturbo 
iniziale. 

Tipi di celie 

La forma piana più semplice consiste 
di celie bidimensionali, cioè di cilindri 
che ruotano rispetto al loro asse. Un 
disturbo iniziale tridimensionale può pro- 
durre celle tridimensionali. Sappiamo che 
con un numero di Rayieigh compreso fra 
1708 e 20 000 le celle cilindriche bidi- 
mensionali sono stabili in presenza di 
piccoli disturbi. Inoltre si pensa che tutti 
i flussi tridimensionali si evolvono lenta- 
mente verso la configurazione bidimen- 
sionale; però non si può esserne certi 
perché l'evoluzione è molto lenta. Perfi- 
no esperimenti della durata di parecchi 
mesi non hanno risolto completamente il 
problema. 

Se si porta il numero dì Rayieigh in- 
torno a 20 000, le celle cilindriche bidi- 
mensionali non sono più stabili: si forma 
un altro gruppo di cilindri perpendicolari 
ai precedenti, che dà origine a un sistema 
tridimensionale di celle rettangolari, una 
struttura di flusso detta convezione bi- 
modale. Se queste celle vengono prodot- 
te in laboratorio con gran cura, esse 
sono tutte virtualmente identiche. Ovvia- 
mente se la forma piana non è bidimen- 
sionale per valori bassi del numero di 
Rayieigh, quando sono stabili le celle ci- 
lindriche, quando si aumenta il numero 




EQUATORE 



FOSSA DI GIAVA 



ZOLLA 
INDO- AUSTRALIANA 



MANTELLO SUPERIORE 



MANTELLO INFERIORE 



DORSALE DELL'OCEANO INDIANO 
SUDORIENTALE 



POLO SUO 



» ZOLLA ANTARTICA 



Sezione della Terra in scala reale, che illustra la configurazione delle zolle dall'equatore al polo 
sud lungo il meridiano a 110 gradi est. Le zolle Un colerei si formano in corrispondenza delle 
dorsali medio-oceaniche e scendono nel mantello di solito in corrispondenza delle l'osse. Il loro 
moto trasporta per convezione circa la metà del calore che attraversa il mantello superiore. 



di Rayieigh, il passaggio improvviso al 
flusso tridimensionale non avviene. 

Per numeri di Rayieigh superiori a cir- 
ca 100 000 la struttura bimodale sì rom- 
pe in un modo abbastanza complicato. 
Quando due gruppi dì celle cilindriche si 
incrociano nella struttura bimodale vi 
sono dei punti in cui il fluido discende o 
rìsale più velocemente che altrove. Se si 
aumenta il numero dì Rayieigh questi 
punti si muovono insieme e distorcono 



la struttura bimodale; la forma piana 
che ne risulta è costituita da un certo nu- 
mero di punti di intensa risalita, uniti gli 
uni con gli altri da piani verticali di flui- 
do discendente (o punti di discesa colle- 
gati da piani di fluido in risalita). Questa 
forma piana è detta a struttura raggiata. 
Che succede per numeri di Rayieigh 
ancora più grandi, paragonabili a quelli 
del materiale che costituisce il mantello? 
È difficile rispondere a questa domanda, 




RESISTENZA ELEVATA 

La zolla discendente incontra una resistenza maggiore man mano che penetra nel mantello 
superiore. Alla profondità di ZOO chilometri, in a, la zolla è in tensione e lira verso il basso, come è 
indicato dal punti neri. In b la zona superiore è ancora in tensione, ma la parte della zolla oltre i 
300 chilometri è in compressione {cerchietti vuoti). In e la punta della zolla, a una profondità 
superiore ai 600 chilometri, incontra una resistenza tale che (ulta la zolla risulta essere in compres- 
sione. In certi casi (rf) porzioni della zolla si staccano e sprofondano fino a circa 600 
chilometri. Queste osservazioni fanno pensare che il flusso convettivo legalo al moto delle zol- 
le sia di fallo limitato a profondità nel mantello che si mantengono inferiori a 700 chilometri. 



62 



63 



FOGLIO DI MYLAR 
TRASPORTATO 
A MOTORE 




SCHERMO 



SORGENTE 
LUMINOSA 



Ap parecchi ni uni per studiare la convezione, che simula le condizioni 
che si pensa prevalgati» nella parie superiore del mantello terrestre. Il 
fluido in convezione è olio sillconico viscoso, che viene riscaldato dai 
basso e raffreddalo dall'alto. Le proprietà dell'olio, combinate con un 
flusso di calore e uno spessore del fluido adeguati, riproducono numeri 
di Ravlcigh nell'intervallo fra 1700 circa eli)'. Lo spessore del fluido 



può variare da circa 1,6 fino a circa sette centimetri. La zona in 
convezione ha un lalo di circa un metro. Per simulare l'effetto dì una 
/olla in movimento sulta struttura di convezione si può spostare sulla 
superficie dell'olio un sottile foglio di Mytar. Di solilo basta qualche 
ora per riprodurre eventi che durerebbero milioni di anni su scala 
reale. La luce proveniente dal basso rende visibile la struttura convettiva. 



SCURO 



CHIARO 



SCURO 



CHIARO 



SCURO 




Semplici celle convettive, consistenti di celle bidimensionali cilindriche 
(viste qui in sezione) forniscono immagini come quelle riprodotte a 
pagina 61 in allo. Raggi paralleli di luce illuminano il fluido dal 
basso. Per rifrazione i raggi si allontanano dalle zone calde e si 



avvicinano a quelle fredde; cosi i piani di fluido caldo ascendente 
sono segnali da una linea scura, che ha talvolta due linee sottili chiare 
ai lati. 1 piani di fluido freddo discendente sono segnati da una linea 
chiara. In genere le celle convettive hanno larghezza uguale allo spessore. 



perché il numero di Reynolds della con- 
vezione raggiata negli esperimenti di la- 
boratorio ha un valore, relativamente al- 
to, vicino a 1 , anche se il fluido è molto 
viscoso e gli effetti della quantità di mo- 
to cominciano a diventare importanti. 
La convezione diventa funzione del tem- 
po, cioè le sue strutture cambiano col 
tempo. Hanno ancora l'aspetto della 
struttura raggiata, ma ì centri in cui con- 
vergono i raggi si allontanano e la posi- 
zione dei piani di discesa e di risalita si 
sposta continuamente. Noi pensiamo che 
questo comportamento si abbia soltanto 
quando il numero di Reynolds è grande. 
La caratteristica più sorprendente del- 
ie strutture cilindriche, bimodali e rag- 
giate, è che la distanza orizzontale fra le 
zone di discesa e di risalita è sempre più 
o meno uguale allo spessore dello strato. 
Data una certa differenza di temperatura 
fra la base e la sommità dello strato, !e 
celle approssimativamente quadrate tra- 
sportano più calore delle celle con altre 
forme. Tuttavia questo fenomeno non 
aiuta molto in un tentativo di formulare 
un modello della convezione a larga sca- 
la che muove le zolle della Terra (se si 
ammette che il flusso nel mantello non si 
estende oltre i 700 chilometri). Quello 
che vorremmo riprodurre negli esperi- 
menti di laboratorio sono celle convet- 
tive con una lunghezza molto più 
grande del loro spessore. 

FI riscaldamento del fluido 

11 mantello non è un fluido uniforme 
riscaldato dai basso: esso contiene degli 
elementi radioattivi, e la loro disintegra- 
zione in parte lo riscalda dall'interno. 
Inoltre la viscosità del materiale del man- 
tello varia molto con la temperatura, co- 
me anche la resistenza alle deformazioni. 
È a causa di queste variazioni che le zolle 
sottili e fredde che si formano da quel 
materiale sono tanto rigide. In effetti 
queste variazioni sono cosi grandi che 
molti geofisici mettono in dubbio che il 
mantello possa essere descritto adeguata- 
mente come un fluido. In che misura tali 
considerazioni complicano gli sforzi di 
elaborare un modello del flusso convetti- 
vo del mantello? È vero che la maggior 
parte degli studi compiuti finora riguar- 
da sistemi convettivi abbastanza sempli- 
ci, in cui lo strato fluido viene riscaldato 
soltanto da! basso; tuttavia, specialmen- 
te con esperimenti compiuti con i calco- 
latori, sono state fatte scoperte signi fìca- 
tive sulla convezione. 

Come abbiamo visto, quando la con- 
vezione è causata da un riscaldamento 
dal basso, il calore è trasportato da co- 
lonne o da piani di fluido caldo che ri- 
salgono dal limite inferiore del fluido e 
da fluido freddo che ridiscende dal limite 
superiore. Per grandi numeri dì Rayleìgh 
questo tipo di flusso dà luogo a un sotti- 
le strato orizzontale di fluido caldo adia- 
cente al limite inferiore e, analogamente, 
a uno strato freddo di fluido adiacente al 
limite superiore. Fra queste due zone 
estreme c'è un'area in cui, dall'alto al 
basso, si hanno scarse variazioni di tem- 



peratura. Se il numero di Rayleìgh au- 
menta, il tempo di rivoluzione diminuisce 
e gli strati al due estremi si assottigliano. 
Quando il calore si genera internamente, 
invece, lo stralo limite inferiore non esi- 
ste. Il calore deve venire trasportato al 
limite superiore da tutti i passaggi del 



fluido, abbastanza prossimi al limite per- 
ché il calore possa venire smaltito per 
conduzione. La zona «passiva» al centro 
della cella scompare. 

Questa situazione destabilizza lo strato 
freddo superiore e dà luogo, quando il 
numero di Rayleìgh supera circa 40 000, 




L'effetto dell'attrito sulla struttura raggiata è stato studiato con l'apparecchiatura illustrata nella 
pagina a fronte. Dopo che si è stabilizzata una struttura convettiva caratteristica del numero di 
Rayleigh di 140 000 (prima fotografia), sì muove il foglio di Mjlar, per simulare una zolla che si 
muove sul mantello. Le fotografie successive, fatte a intervalli uguali, mostrano la riorganiz- 
zazione della struttura in seguilo al movimento della zolla da sinistra a destra. L'attrito 
trasforma la struttura raggiala in cilindri con gli assi paralleli alla direzione del molo. La 
piccola barra nera In allo a sinistra in tutte le fotografie ìndica la profondità del fluido. 



64 



65 



X 



o 

E 
ni 

E 

3 
2 




SI pensa che la convezione nel mantello componi numeri di Rayleigh fra 10* e IO'. Le esperienze 
di laboratorio dimostrano che le strutture conveltke diventano più complesse, passando dai 
cilindri al flusso bimodale e alla struttura raggiala, all'aumentare del numero di Rayleigh. 




Le simulazioni di etile convettive mostrano come le strutture sono influenzale dalle variazioni di 
viscosità e dalle modalità del riscaldamento. Se la viscosità è costante e il fluido è riscaldato solo 
da) basso (al, I piani di fluido ascendente e discendente sono quasi simmetrici. Se il calore è 
ceduto uniformemente in tutto l'interno di un fluido a viscosità costante (6), si hanno sottili 
piani di fluido freddo discendente, mentre intorno risale fluido caldo. Se il modello è ripetuto 
per un Unitili in cui la viscosità diminuisce notevolmente col crescere della temperatura, il 
riscaldamento dal basso (e) produce una cella in cui il piano di calore ascendente è molto più 
sottile di quello discendente. Se il calore è ceduto dall'interno del fluido a viscosità variabile («0, 
la struttura non è mollo diversa da quella che si osserva quando la viscosità è costante. 



a un comportamento complicato e di- 
pendente dal tempo. Sia le colonne sia i 
piani di fluido discendente si materializ- 
zano spontaneamente a partire dalle in- 
stabilità dello strato limite superiore; una 
volta che si sono formati essi si spostano 
insieme verso altre zone discendenti e si 
combinano a esse, muovendosi verso lo 
interno del fluido. Quindi il ciclo si ripe- 
te. La forma generale del flusso somiglia 
molto al molo delle zolle, con uno strato 
limite superiore sottile e freddo e dei 
piani discendenti in movimento, ma an- 
cora una volta le dimensioni orizzontali 
del moto sono prossime allo spessore 
dello strato in conduzione. 

In tutti gli esperimenti di laboratorio il 
fluido caldo è meno viscoso del fluido 
freddo, ma questa variazione di viscosità 
influisce fortemente nel flusso soltanto 
quando la zona calda è meno viscosa di 
quella fredda di un fattore 10 o più. 
Quando la convezione è causata da un 
riscaldamento dal basso, la zona calda in 
risalita a bassa viscosità diventa più sot- 
tile, e la zona di sprofondamento più 
larga, che nel caso in cui le differenze di 
viscosità fossero basse. Quando il calore 
è fornito dall'interno de! fluido non si 
hanno cambiamenti notevoli nella forma 
del flusso, nemmeno quando si hanno 
forti differenze di viscosità. Gli esperi- 
menti, abbastanza limitati, compiuti fi- 
nora sul riscaldamento intemo, indicano 
che l'influenza di tale riscaldamento sul- 
la forma della convezione è più impor- 
tante delle differenze di viscosità. Espe- 
rimenti compiuti recentemente al calco- 
latore sulla convezione nei fluidi non 
solo descrivono le variazioni di viscosità, 
ma riproducono anche le leggi del flusso, 
più complesse e realistiche, scoperte de- 
formando le rocce ad alta temperatura. 

Sebbene vi sia ovviamente ancora mol- 
to da imparare sulla forma piana della 
convezione dei fluidi a viscosità diverse e 
sulla convezione causata da riscaldamen- 
to interno, si è trovato che tutte le celle 
convettive con larghezza cinque o più 
volte superiore allo spessore dello strato 
in convezione sono instabili. 

La convezione su piccola scala 

Un modo ovvio di mettere d'accordo 
le osservazioni geo fisiche, che dimostra- 
no che le celle si estendono orizzontal- 
mente almeno per 10 000 chilometri, con 
gli esperimenti al calcolatore e di labora- 
torio, è di ammettere che nel mantello la 
convezione si estende dalla superficie fi- 
no alla zona in cui il mantello incontra 
il nucleo terrestre, alla profondità di 
2900 chilometri. Ci sono diverse obiezio- 
ni a questo modello. La più importante è 
data dalla grande resistenza incontrata 
alla profondità di 700 chilometri dalle 
zolle discendenti; un'altra obiezione è 
più complessa. Se il flusso si estende per 
tutto il mantello, dev'essere causato in- 
teramente dal riscaldamento interno, il 
che implica un numero di Rayleigh di 
almeno 50 milioni. In queste condizioni, 
come abbiamo visto, le colonne e i piani 
che sprofondano dalla superficie supe- 



riore fredda sono molti e la distanza che 
li separa non è che una piccola frazione 
dello spessore dello strato in convezione. 
Per ottenere condizioni in cui non si 
abbia questo tipo di convezione a piccola 
scala bisogna diminuire il numero di 
Rayleigh almeno di un fattore 1000, cioè 
fino a circa 50 000. Sebbene manchi una 
conoscenza molto precisa dei parametri 
fisici all'interno della Terra, sembra im- 
possibile riportare un numero come 
50 000 al valore minimo stimato di 50 
milioni, necessario per la convezione pro- 
fonda nel mantello. Noi preferiamo un 
modello in cui la convezione si limita ai 
700 chilometri più esterni del mantello. 
In questo caso il flusso è causato in parte 
dal calore generato all'interno del fluido 
e in parte da quello generato nel mantel- 
lo inferiore e forse nel nucleo, 

I risultati degli esperimenti comporta- 
no evidentemente che nel mantello supe- 
riore vi sia una convezione su piccola 
scala, con una distanza di circa 700 chi- 
lometri fra le zone di risalita e di spro- 
fondamento. Oltre a questa, però, deve 
esserci una convezione su grande scala 
per spiegare le osservazioni geo fisi che, e 
in particolare il moto delle zolle superfi- 
ciali. Spesso la convezione con alti nu- 
meri di Rayleigh si ha su scale diverse. 
La circolazione dell'atmosfera e degli o- 
ceani, prodotta da differenze di densità 
su grande scala, fornisce esempi familia- 
ri: in ambedue i casi i moti a larga scala 
si sovrimpongono a strutture convet- 
tive a piccola scala. Le nuvole sono strut- 
ture convettive di questo tipo. La con- 
vezione nel mantello, invece, è mollo 
diversa dalla convezione che si osserva 
nell'atmosfera e negli oceani, perché nel 
mantello il numero di Reynolds è piccolo 
e la quantità dì moto trascurabile. 

Per controllare l'ipotesi che nei man- 
tello esistano due scale di flusso convet- 
tivo sono necessari dati geofisici sull'e- 
sistenza del flusso su piccola scala; inol- 
tre si vorrebbe capire come può il flusso 
a grande scala essere stabile, dato che 
ovviamente lo è. Probabilmente la for- 
ma piana del flusso a piccola scala di- 
pende dall'efficacia dell'accoppiamento 
fra le zolle superficiali e il mantello. Se 
fra una zolla che si muove e il mantello 
non c'è scivolamento, uno spessore no- 
tevole del mantello superiore verrà tra- 
scinato dalla zolla. In tal caso il mantello 
sottostante allo strato in movimento su- 
birà intense deformazioni di taglio. 

Si può simulare una condizione di que- 
sto tipo con le strumentazioni di labora- 
torio sistemando le cose in modo che un 
foglio di plastica di Mylar, che rappre- 
senta una zolla, si muova di moto sta- 
zionario sopra il fluido in convezione. 
Quando la velocità del foglio dì plastica 
supera un certo valore la convezione 
prende la forma di cilindri in rotazione, 
con gli assi allineati in direzione delle 
forze di attrito. L'attrito si limita a tra- 
sportare il fluido lungo il cilindro e quin- 
di non ha alcun effetto sulla convezione 
su piccola scala. Nell'atmosfera si osser- 
vano spesso cilindri convettivi in un 
flusso con attrito, quando prendono l'a- 



ZOLLA 




ZOLLA 



ZONA A BASSA VISCOSITÀ 




ti flusso sollo le zolle può disporsi secondo uno di questi due schemi generali. Nel primo 
modello (in alio) la viscosità del materiale sotto le zolle è uniforme; in tal modo uno strato 
notevole del fluido è trascinalo dal moto delle zolle. Per conservare la massa, a profondità 
superiori nel mantello ci dev'essere un notevole flusso inverso. Se c'è invece sotto le zolle uno 
strato sottile di materiale a bassa viscosità (in basso), il molo superficiale risulla disaccoppiato 
dal mantello e in sostanza solo la massa delle zolle stesse dev'essere portata dal flusso inverso, 
li osmi nazioni geofiliche che sono siale effeltuate confermano il modello del disaccoppiamento. 



spetto del «cielo a pecorelle»: sono righe 
parallele di sbuffi di nuvole, tutte più o 
meno delle stesse dimensioni. L'attrito 
necessario a trasformare le strutture tri- 
dimensionali bimodali o raggiate in strut- 
ture cilindriche dipende dal numero di 
Rayleigh. In laboratorio si formano le 
celle di convezione cilindriche quando la 
velocità del foglio di plastica corrisponde 
a una velocità della zolla di circa 10 cen- 
timetri all'anno per uno strato in conve- 
zione dello spessore dì 700 chilometri. 

La comprensione generale della fisica 
di una convezione energica è ovviamente 
di grande aiuto nella comprensione della 
convezione nel mantello terrestre. Invece 
di cercare di applicare le limitate osser- 
vazioni geofisiche per ricavare la forma 
del flusso, possiamo usarle per verificare 



modelli compatibili con gli esperimenti 
di laboratorio. Come notavamo all'i- 
nizio, però, le zolle sono tanto rigide 
da mascherare gli effetti che potrebbero 
essere associati alla convezione su picco- 
la scala. Due effetti importanti che non 
vengono mascherati sono le variazioni 
regionali della gravità e della profondità 
dell'oceano. 

Le anomalie di gravità che si estendo- 
no per distanze di 1000 o più chilometri 
vengono originate dalle differenze di den- 
sità del mantello e dalle deformazioni as- 
sociate alla superficie; le variazioni di 
profondità dell'oceano sono un po' più 
difficili da interpretare. La variazione di 
profondità più ovvia risulta dal raffred- 
damento e dalla contrazione di una zolla 
che si allontana dall'asse di una dorsale 



66 



67 



medio-oceanica, dove la crescita della 
zolla è originata dalla risalita dei mate- 
riali caldi del mantello. Dato che tutte le 
zolle si raffreddano nello stesso modo, la 
profondità dell'oceano dovrebbe essere 
funzione dell'età del materiale della zolla 
in quel punto, a meno che non vi siano 



ASSE DELLA DORSALE 



altre forze in gioco. La profondità teori- 
ca si può calcolare facilmente; fatto at- 
tentamente questo calcolo si mettono in 
luce scarti regionali dalla profondità teo- 
rica che corrispondono strettamente alle 
anomalìe gravimetriche. A ragione si può 
credere che le variazioni di profondità e 




Questo possibile modello delia convezione sotto le zolle in prossimità di unii dorsale inciti o- 
-oceanica mostra il flusso su due scale diverse. Se le zolle si allontanano reciprocamente abbastan- 
za in fretta, ossia di in o più centimetri all'anno, la convezione su piccola scala si può trasformare 
in cilindri longitudinali ì cui assi sono disposti parallelamente al moto della zolla. Resta da 
chiarire esattamente come il moto delle zolle possa interagire coi cilindri convettivi longitudinali. 



ZOLLA 



MANTELLO 
SUPERIORE 



VULCANI 

ATTIVI 




Questo modello alternativo della convezione nel mantello può spiegare la formazione di catene 
vulcaniche nelle quali il silo del vulcanismo attivo non si sposta velocemente come le zolle. Il 
diagramma si propone di mostrare solo le celle convettive su piccola scala; la circolazione su 
grande scala è stata tralasciata. 11 flusso su piccola scala é in qualche modo disaccoppiato dalle 
zolle per mezzo di un sottile strato a bassa viscosità che può essere parzialmente fuso. Parte del 
calore necessario per dar luogo alla convezione su piccola scala proviene dal mantello inferiore e 
parte dal decadimento degli Isotopi radioattivi all'interno dello strato. Poiché la viscosità 
diminuisce con t'aumentare della temperatura il calore proveniente dal basso produce sottili 
colonne di materiali caldi ascendenti. Il riscaldamento interno crea dei piani e delle colonne fredde 
discendenti, che predominano sul flusso complessivo. A causa dello strato di disaccoppiamento 
le colonne calde ascendenti possono eruttare, portando alta formazione di vulcani attivi che non 
si spostano insieme alla zolla, mentre i monti di lava dei vulcani estinti possono spostarsi. 



di gravità siano associate alle correnti 
convettive alla base delle zolle. 

La prima domanda a cui bisogna ri- 
spondere è se le zolle in movimento si 
trascinano dietro una parte del mantello 
o se sono disaccoppiate dai moti convet- 
tivi nel mantello da uno strato sottile di 
materiale a bassa viscosità. Se il moto 
delle zolle si trascina dietro parecchio 
materiale, a profondità maggiori ci deve 
essere qualche tipo di flusso di ritorno, 
altrimenti la massa non si conserverebbe. 
Il flusso dì ritorno dev'essere causato da 
una diminuzione di pressione fra le pro- 
fonde fosse oceaniche, dove la zolla si 
tuffa nel mantello, e le dorsali medio- 
-oceaniche. La differenza di pressione 
necessaria farebbe stare in pendenza la 
parte superiore della zolla; tali pendenze 
non sono state rilevate e mancano ano- 
malie gravimetriche osservabili prodotte 
dal materiale trasportato nella fossa e 
dal suo flusso di ritorno. Quindi le os- 
servazioni geofisiche sono a favore del 
disaccoppiamento della zolla dal mantel- 
lo per mezzo di uno strato a bassa visco- 
sità. L'esistenza di tale strato venne pro- 
posta indipendentemente dalla teoria del- 
la tettonica a zolle, per spiegare le osser- 
vate attenuazioni delle onde sismiche. 

// disaccoppiamento delle zolle 

Alcuni tentativi recenti di determinare 
le forze che agiscono sulle zolle analiz- 
zando dettagliatamente il loro moto fan- 
no anch'essi pensare che le zolle sono di- 
saccoppiate dal mantello. Tuttavia si sa 
poco sulla viscosità dello strato a cui si 
deve il disaccoppiamento, che probabil- 
mente ha uno spessore inferiore a 50 chi- 
lometri. Se davvero le zolle e il mantello 
sono disaccoppiati, la resistenza al moto 
delle zolle è grandemente ridotta e le 
varie sorgenti di energia convettiva asso- 
ciate al moto delle zolle possono fornire 
facilmente la potenza necessaria a guida- 
re il flusso su grande scala alle velocità 
osservale. La sorgente di energia più evi- 
dente è la risalita del materiale caldo del 
mantello, che allontana le zolle dalla dor- 
sale medio-oceanica. Àncora più impor- 
tante è lo sprofondamento delle zolle 
fredde e dense nel mantello, che tende- 
rebbe a tirare le zolle verso le fosse. 

Sono pochi i dati diretti sulla conve- 
zione a piccola scala nel mantello. Se le 
zolle e il mantello non sono disaccoppia- 
ti, sotto le zolle in rapido movimento 
questo flusso dovrebbe prendere la for- 
ma di cilindri ruotanti. Se lo strato a 
bassa viscosità compie il disaccoppia- 
mento c'è da aspettarsi che il flusso su 
piccola scala sia tridimensionale e com- 
plesso, cioè che consista di materiali cal- 
di in risalita e materiali freddi discenden- 
ti in forma dì piani e di colonne. Poiché 
circa la metà del calore dello strato con- 
vettivo giunge per conduzione dalla base 
dello strato e l'altra metà dall'interno, 
dovrebbero esistere più zone di sprofon- 
damento che zone di risalita, e le varia- 
zioni di viscosità con la temperatura do- 
vrebbero rendere le zone di risalita più 
sottili di quelle di sprofondamento. 



Sono stati compiuti tentativi per ri- 
velare la convezione a piccola scala, ma 
hanno avuto successo soltanto marginal- 
mente. Non tutti i geofisici accettano che 
le anomalie gravimetriche e le variazioni 
di profondità siano prove convincenti 
del flusso su piccola scala. Ciononostan- 
te vi sono buone prove dell'esistenza di 
qualche tipo di trasporto convettivo di 
calore, oltre a quello direttamente as- 
sociato al moto delle zolle. L'aumento di 
profondità dell'oceano con l'età delta 
zolla in quel punto è in stretto accordo 
con la subsidenza calcolata per una zolla 
dello spessore dì circa 120 chilometri. Se 
il mantello a profondità maggiori di 120 
chilometri potesse raffreddarsi per con- 
duzione, le parti più vecchie dell'Atlan- 
tico e del Pacifico sarebbero circa un 
chilometro più profonde di quanto non 
siano in realtà; questo raffreddamento sì 
può impedire solo se il calore è tra- 
sportato alla base della zolla per con- 
vezione. Però le osservazioni sulle pro- 
fondità degli oceani non danno alcuna 
informazione sulla forma piana di que- 
sta eventuale convezione. Per quanto 
sembri probabile che è in gioco una con- 
vezione a piccola scala del tipo che ab- 
biamo descritto, qualsiasi tipo di tra- 
sporto convettivo del calore potrebbe 
spiegare le osservazioni. 

C'è un altro gruppo di osservazioni 
che fornisce prove sia per il disaccop- 
piamento sia per la convezione su pic- 
cola scala; le catene di vulcani che for- 
mano dorsali in certe zone di oceano 
profondo. L'esempio più conosciuto è 
dato delle isole Hawaii nel Pacifico. I 
due vulcani attualmente attivi si trovano 
sull'isola di Hawaii, al confine sudorien- 
tale della dorsale. Le rocce vulcaniche 
che formano la dorsale aumentano con- 
tinuamente di età all'aumentare delia di- 
stanza da Hawaii. Negli oceani Atlantico 
e Indiano esistono diverse dorsali che 
somigliano a quella delle Hawaii, 

La cosa interessante è che il molo 
reciproco di due luoghi attivi di vulcani- 
smo di questo tipo è solo di uno o due 
centimetri all'anno, mentre il moto di 
una zolla rispetto a un'altra è di più di 
10 centimetri all'anno. Tali misure indi- 
cano che la sorgente dì lava si trova 
sotto le zolle e non si muove con esse. 
Secondo questo punto di vista i vulcani 
sono le manifestazioni superficiali di co- 
lonne di materiale caldo che risale alla 
superficie dalla base del mantello. 

La principale obiezione a tale modello 
proviene dai modelli al calcolatore del 
comportamento dei fluidi riscaldati in- 
ternamente, che dimostrano che si hanno 
colonne fredde discendenti, ma mai co- 
lonne calde ascendenti. Tuttavia questi 
problemi non sorgono se la convezione 
è limitata ai 700 chilometri più esterni 
del mantello. Dato che questa zona è 
riscaldata sia dal basso sia all'interno, le 
colonne calde dovrebbero potersi forma- 
re; inoltre le colonne non si muoveranno 
con le zolle perché disaccoppiate da esse. 

Naturalmente è spiacevole non dispor- 
re di altre informazioni sulla forma de! 
flusso su piccola scala, tuttavia è un 



fatto notevole quello di poter spiegare 
tutte le principali osservazioni geofisiche 
con un modello che sì basa su esperienze 
di laboratorio. Resta il fatto che le osser- 
vazioni compiute sono troppo poche. 
Tuttavia, in seguito ai recenti progressi 
compiuti nella misurazione della gravità 



terrestre per mezzo di satelliti e alla mag- 
gior precisione degli esperimenti di labo- 
ratorio, entro i prossimi anni le nostre 
conoscenze sulle anomalie gravimetriche 
esistenti sotto gli oceani dovrebbero au- 
mentare sia quantitativamente sia quali- 
tativamente. 




60 80 100 120 

ETÀ' [MILIONI DI ANNI FA) 



180 



La profondila dell'oceano aumenta con l'età del Fondale per la contrazione termica della zolla, 
che si raffredda a partire dall'elevata temperatura uniforme che si ha sull'asse della dorsale 
medio-oceanica. Se il raffreddamento continuasse uniformemente con l'età man mano che la 
zolla si allontana dalla dorsale, la profondità dovrebbe seguire la curva tratteggiata. Invece le 

misure rv^M Segano In C'.irvfl rrtnliniiii. chi* i' io -jfi'oritn mi ni (Trivi ihooi'nto di lina Zolla 

spessa 12(1 chilometri e con ima temperatura alla base di 12(90 gradi centigradi. Quindi 
parie del calore viene ceduto dal basso, probabilmente dalla convezione su piccola scala. 




Viene indicata la profondila dell'Atlantico settentrionale in metri \in colore), dopo aver corretto 
gli effetti del raffreddamento della zolla per l'età. Le linee nere mostrano le anomalie gravi- 
metriche in milligal. Le variazioni di Queste due grandezze sembrano stremamente correlate 
e potrebbero essere una prova dell'esistenza di una zona in cui il materiale caldo del mantello 
viene sollevalo da correnti convettive su piccola scala. Né la profondità dell'oceano né il campo 
gravimetrico sembrano aver molto a che fare con la dorsale medio-atlantica (lìnea in grìgio). 



68 



69 



Cellule visive nel ponte di Varolio 



Alcune cellule poste in una protuberanza alla base dell'encefalo 
funzionano come un 'importante stazione di relè sulla via nervosa che 
collega occhi e muscoli per il coordinamento dei movimenti del corpo 



di Milchell Glickstein e Alan R. Gibson 



Le funzioni che richiedono uno stretto 
collegamento fra gli occhi e gli arti, 
come afferrare un oggetto al voto o 
inseguire qualcuno che fugge, presup- 
pongono il collegamento tra le attività 
dei centri visivi e dei centri motori del 
cervello. Nei mammiferi questi centri si 
trovano in regioni circoscritte della cor- 
teccia, l'ampio manto cerebrale pluristra- 
tificato e circonvoluto di cellule nervose 
che forma gran parte del cervello. L'area 
visiva si trova nella parte posteriore della 
corteccia; la stimolazione elettrica di que- 
st'area produce una sensazione di luce e 



le cellule della corteccia visiva possono 
essere selettivamente attivate presentan- 
do all'occhio degli stimoli visivi. Analo- 
gamente, la stimolazione dell'area moto- 
ria, nella parte anteriore della corteccia, 
provoca una contrazione muscolare e la 
attività delle cellule in questa regione 
aumenta qualche attimo prima del movi- 
mento muscolare. In che modo, dunque, 
la corteccia visiva e quella motoria inte- 
ragiscono per guidare i movimenti degli 
arti? E quali tipi di connessioni esistono 
fra loro? 
La corteccia cerebrale, come il resto 



CORTECCIA CEREBRALE 




PEDUNCOLO CEREBRALE 



PONTE 



CERVELLETTO 



PEDUNCOLO CEHEBELLAHE MEDIO 



La -munirà de I l'encefalo umano noia come ponte fu descritta perla prima Milla nel W 1 secolo 
fluii 'ii aliami Costanzo Varolio, che la paragonò a un ponte teso sul tronco encefalico. 1 
peduncoli cerebrali contengono fibre che partono dalla corteccia del cervello e si proiettano al 
ponle. Da qui, attraverso i peduncoli cerebellari medi, vanno ai cervelletto, dove l'informa- 
zione sensoriale e l'in forma/ione motoria vengono coordinate per guidare i movimenti degli arti. 



del cervello, è formata da miliardi di 
singoli elementi: le cellule nervose, o 
neuroni, e le loro cellule di sostegno. 1 
neuroni hanno forme e dimensioni molto 
diverse e la maggior parte di essi possie- 
de un complesso sistema di fibre ramifi- 
cate, i dendriti, e una singola lunga fi- 
bra, Cassone. È attraverso Cassone che il 
neurone trasmette i messaggi ad altre 
cellule nervose sotto forma di impulsi 
elettrochimici. L'estremità dell'assone 
viene a contatto con un dendrite o con il 
corpo cellulare di un altro neurone: l'ele- 
mento di congiunzione dove ha luogo il 
passaggio degli impulsi è la sinapsi. La 
sinapsi fa si che l'informazione proceda 
in una sola direzione e le cellule nervose 
sono organizzate in circuiti secondo le 
loro connessioni sinaptiche. 

La nostra conoscenza del circuito che 
collega le cellule nervose nelle regioni 
motoria e visiva della corteccia è appros- 
simativa, tuttavìa è possibile indicare al- 
meno tre vie attraverso le quali potrebbe 
aver luogo questo collegamento. Una di 
queste vie è interamente corticale: l'in- 
formazione, dalla corteccia visiva, passa 
alle aree di associazione visiva, dove vie- 
ne elaborata, per poi procedere verso la 
corteccia motoria. Le altre due vie par- 
tono dalla corteccia cerebrale per farvi 
poi ritorno passando Cuna per i gangli 
della base, l'altra per il cervelletto, che 
presiede al coordinamento della motilità. 

Quest'ultima via ci interessa partico- 
larmente perché oggi sappiamo molte co- 
se sul funzionamento della corteccia visi- 
va e del cervelletto, ma ben poche sulle 
connessioni fra essi esistenti. Con i no- 
stri colleghi della Brown University e 
della Università dì Oxford abbiamo stu- 
diato il primo centro di relè su una via 
che parte dalla corteccia visiva per colle- 
garsi alla corteccia motoria passando per 
il cervelietto, un circuito che sembra es- 
sere una delie vie più importanti per la 
guida visiva del movimento, 

I primi ricercatori ritenevano che solo 
la corteccia motoria inviasse fibre al cer- 
velletto. Circa 25 anni fa R.S. Sm'der, 
presso la Western University, scoprì una 
afferenza funzionale visiva al cervelletto 



72 



osservando che lampi di luce davano luo- 
go a differenze di potenziale misurabili 
nel verme, la regione mediana della cor- 
teccia cerebellare. Le ricerche successive 
hanno confermato l'osservazione di Sni- 
der e hanno anche rivelato che in un 
animale da esperimento, leggermente a- 
nestetìzzato, un vivido lampo di luce può 
provocare scariche elettriche su quasi tut- 
ta la corteccia cerebellare. Gli stimoli 
visivi sono convogliati al cervelletto at- 
traverso la corteccia visiva e anche attra- 
verso il collicolo superiore, una struttura 
visiva nei mesencefalo. 

Le connessioni tra la corteccia visiva e 
il cervelletto fanno parte dì un mas- 
siccio sistema di fibre provenienti da 
quasi tutte le regioni della corteccia cere- 
brale. Le fibre corticali in uscita non 
sono collegate direttamente al cervellet- 
to, ma passano attraverso una protube- 
ranza alla base dell'encefalo. Questa 
struttura è stata descritta nel XVI secolo 
dall'anatomista italiano Costanzo Varo- 
lio che per primo sezionò dal basso il 
cervello. Egli riteneva che il grande fa- 
scio trasversale di fibre che passava so- 
pra alla protuberanza somigliasse a un 
ponte gettato sul tronco cerebrale sotto- 
stante e diede a questa regione il nome 
di ponte. Anche nei mammiferi con una 
estesa corteccia cerebrale il ponte e il 
cervelletto sono sviluppati; tutte e tre le 
strutture sono però straordinariamente 
sviluppate nell'encefalo dell'uomo. 

La via che collega la corteccia visiva al 
cervelletto passando per il ponte ci inte- 
ressava per vari motivi. Innanzi tutto, 
dato che il cervelletto svolge un'impor- 
tante funzione nel controllo del movi- 
mento, pensavamo che l'analisi delle sue 
afferenze visive potesse svelare la natura 
di uno dei più importanti circuiti della 
coordinazione visiva-motoria. In secon- 
do luogo, ritenevamo che l'esame delle 
connessioni tra la corteccia visiva e il 
ponte ci avrebbe aiutato a chiarire un 
altro problema connesso alla rappresen- 
tazione del mondo visivo nella corteccia. 

Era noto da tempo che la luce che 
colpisce la retina viene trasformata in 
impulsi nervosi dalle cellule retiniche, e 
che questi sono trasmessi, tramite il ner- 
vo ottico, ai corpi genicolati laterali. Que- 
ste strutture sono le principali stazioni in- 
terposte sulla via che va dagli occhi alla 
corteccia visiva e ciascuna riceve un ap- 



I r cellule conico ponti ne (cellule della cortec- 
cia visiva del cervello che si proiettano al 
ponte) vengono selettivamente colorate dì 
marrone utilizzando una perossidasi estratta 
dalla pianta barhafnrle. Questa microfotogra- 
fia mostra una sezione a circa 1,5 nini di pro- 
fondità nella corteccia visiva di un galto: la 
tinca in alto è la superficie del cervello. Alcu- 
ne fibre che si proiettano dalle due cellule co- 
lorale sono chiaramente visibili, ma le singole 
fibre che collegano le cellule al ponle sono 
froppo sotlili per essere viste a questo ingran- 
dimento. Le cellule corti co pontine sono nu- 
mericamente scarse e confinale in uno strato 
profondo della corteccia con importami colle- 
gamenti con le strutture inferiori dell'encefalo. 




73 



porto dalla metà dei campi visivi. Nei 
gatti il corpo genicolato laterale si proiet- 
ta a diverse regioni nella corteccia visiva, 
tra le quali le aree designate, nel cervello 
del gatto, con i numeri 17 e 18. Ciascuna 
di queste aree contiene una rappresenta- 
zione del tutto indipendente della metà 
dei campi visivi. 

Perché i campi visivi sono proiettati in 
parallelo a due differenti aree della cor- 
teccia? Se ciò avviene perché queste aree 
hanno funzioni diverse, questa diversità 
potrebbe riflettersi sulla natura dei mes- 
saggi in uscita; per esempio, un'area può 
mostrare una maggiore proiezione di fi- 
bre verso il ponte. Se così fosse, essa 
avrebbe connessioni abbastanza dirette 
con il cervelletto e potrebbe perciò essere 
specializzata nella regolazione visiva del 
movimento. 

II nostro primo obiettivo, dunque, fu 
quello di sapere quali erano le aree della 
corteccia visiva che inviavano messaggi 
al ponte e su quali cellule terminavano le 
loro fibre. Una volta scoperto un gruppo 
di cellule del ponte che ricevevano im- 
pulsi visivi, avremmo potuto procedere 
all'esame della loro funzione. 

Una comune tecnica neuroanatomica 
si basa sul fatto che l'assone di una cel- 
lula nervosa si deteriora rapidamente 
quando viene distrutto il corpo cellulare. 
Perciò la proiezione di fibre da una parte 
all'altra del cervello può essere messa in 
evidenza distruggendo i corpi cellulari in 



CORTECCIA 
CEREBRALE 



una regione e seguendo poi le fibre dege- 
nerate che le collegano all'area bersaglio. 
In una serie di esperimenti su gatti ane- 
stetizzati, Richard A. King, John F. Stein 
e il nostro gruppo di ricerca provocaro- 
no lesioni in quelle parti sia dell'area 17 
che dell'area 18, nella corteccia visiva, 
che ricevevano afferenze dal centro del 
campo visivo. Dopo dieci giorni, i gatti 
furono rianestetizzatì e i loro cervelli 
rimossi, fissati e sezionati. Eileen D. La- 
Bossiere colorò le sezioni con il metodo 
all'argento di Nauta per mettere in evi- 
denza la localizzazione delle fibre dege- 
nerate provenienti dalla corteccia visiva. 

Quando le lesioni erano state fatte nel- 
l'area 18, si osservò la comparsa di un 
focolaio precisamente delimitato di fibre 
degenerate in un gruppo di cellule del 
ponte. Le lesioni nella corrispondente 
.regione dell'area 17, invece, causavano 
una degenerazione trascurabile nel pon- 
te, così da far supporre che le due regio- 
ni corticali potessero essere funzional- 
mente differenti. Questa ipotesi si è raf- 
forzata quando Per Brodai, dell'Istituto 
di anatomia di Oslo ha scoperto che le 
fibre che vanno dall'area 17 al ponte 
provengono largamente da quelle parti 
dell'area che ricevono informazioni dalla 
periferia del campo visivo. 

Esistono due altre regioni visive nella 
corteccia cerebrale del gatto; una di que- 
ste, l'area 19, è adiacente all'area 18; 
l'altra, l'area soprasilviana laterale, è vi- 



cina alle altre aree visive, ma separata 
lateralmente da esse. Tutte e quattro le 
regioni della corteccia visiva ricevono fi- 
bre direttamente dagli occhi attraverso i 
corpi genicolati laterali. James F. Baker, 
LaBossiere e io iniziammo un altro stu- 
dio anatomico per scoprire se l'area 1 9 e 
l'area soprasilviana laterale inviassero 
anch'esse delle fibre al ponte. Scoprim- 
mo che le proiezioni dell'area 19 erano 
scarse, ma che l'area soprasilviana latera- 
le inviava numerose proiezioni nella stes- 
sa regione del ponte in cui si proietta 
l'area 18. Queste due regioni della cor- 
teccia perciò potrebbero essere specializ- 
zate per la guida visiva del movimento e 
può darsi che abbiano una funzione me- 
no importante nella percezione visiva del- 
la forma. 

Le scoperte fatte con le tecniche di de- 
generazione sono state recentemente 
confermate e ampliate con un'altra tec- 
nica anatomica. Quando certi enzimi, 
per esempio la perossidasi estratta dalla 
barbaforte, vengono iniettati nel tessuto 
cerebrale, essi vengono assorbiti dalle de- 
terminazioni assoniche e trasmessi in via 
retrograda fino ai corpi cellulari. Se ì 
corpi cellulari riempiti con l'enzima ven- 
gono poi trattati con diamminobenzidi- 
na, si forma un prodotto di reazione 
marrone scuro che permette di indivi- 
duare quelle cellule i cui assoni vanno 
all'area dove l'enzima era stato iniettato. 




CORTECCIA 
SENSO- 
MOTORIA 



Il cervello di-! gatto visto dall'atto rivela le aree visiva e senso-molo ri a 
della corteccia cerebrale. Tinte e quadro le aree visive di ciascun emi- 
sfero ricevono messaggi indipendenti da metà del campo visivo. 




CERVELLETTO 



TRATTO 

PIRAMIDALE 



MIDOLLO SPINALE 



Il cervello del gallo visto dal basso rivela la localizzazione del ponte e 
del cervelletto (aree in colore). L'informazione proveniente dalla cor- 
teccia visiva viene trasmessa, passando per il ponte, al cervelletto. 



Con questa tecnica siamo stati in grado, 
insieme a Baker e a George D. Mower, 
di tracciare la via tra il ponte e la cortec- 
cia visiva nella direzione opposta a quel- 
la identificata con la tecnica della dege- 
nerazione. 

Dopo aver eseguito sui gatti un inter- 
vento che esponesse la superficie inferio- 
re del ponte, iniettammo una pìccola 
quantità di perossidasi nell'area visiva. 
Procedendo dal basso fummo in grado 
di evitare che l'enzima accidentalmente 
colasse in altre strutture che avrebbero 
potuto ricevere anch'esse fibre dalla cor- 
teccia. Quando i cervelli dei gatti furono 
sezionati ed esaminati al microscopio 
senza colorazione, si osservarono grandi 
cellule piramidali contenenti la reazione 
della perossidasi in tutte le aree della 
corteccia visiva, tranne la parte centrale 
dell'area 17. Le cellule «marcate» erano 
limitate a uno strato profondo della cor- 
teccia che è noto come un'importante 
sorgente di efferenze dalla corteccia alle 
strutture più basse del cervello. Queste 
cellule dovevano perciò inviare informa- 
zioni visive al ponte. 

Avendo localizzato nel ponte un grup- 
po di cellule che ricevevano fibre 
dalle cellule della corteccia visiva, abbia- 
mo cercato di vedere se queste potevano 
essere fisiologicamente attivate da deter- 
minati stimoli visivi. Dato che queste cel- 
lule trasmettono informazioni sotto for- 
ma di brevi impulsi elettrici, si possono 
registrare le loro risposte a stimoli senso- 
riali collocando alcuni elettrodi nelle vici- 
nanze. Gli impulsi in una data cellula ner- 
vosa o fibra hanno tutti all'incirca la 
stessa ampiezza; l'efficacia dello stimolo 
che le provoca è però espressa non dal- 
l'ampiezza, ma dalla frequenza dei poten- 
ziali a punta, o spìke al secondo, visibili 
sullo schermo dell'oscilloscopio. In gene- 
rale, più alta è la frequenza degli spike al 
secondo, più potente è lo slimolo. 

Nei nostri esperimenti fisiologici con 
Baker e Stein, abbiamo registrato l'atti- 
vità di singole cellule del ponte in gatti 
leggermente anestetizzati e senza lesioni. 
La superficie del cervello veniva scoperta 
e venivano introdotti nel ponte alcuni 
microelettrodi al tungsteno con una tec- 
nica stereotassica che permette di localiz- 
zare gli elettrodi su coordinate tridimen- 
sionali nel cervello in profondità. Quan- 
do i microelettrodi venivano posti nella 
regione del ponte che riceveva fibre dalla 
corteccia visiva tutte le cellule incontrate 
reagivano alto stimolo visivo aumentan- 
do la propria frequenza di scarica. Le 
cellule che reagivano allo stimolo visivo 
potevano essere anche attivate da stimo- 
lazioni elettriche della corteccia visiva. 
Quando incontravamo una cellula del 
ponte che poteva essere attivata da uno 
stimolo visivo e facevamo poi affondare 
un po' di più l'elettrodo nel tessuto, la 
cellula successiva incontrata dall'elettro- 
do poteva essere generalmente attivata 
dallo stesso stimolo. Non solo, se si in- 
troduceva l'elettrodo attraverso il ponte 
in un punto immediatamente adiacente 
alla traccia precedente, trovavamo di so- 



EMISFERO SINISTRO 



EMISFERO DESTRO 




MIDOLLO 
SPINALE 



- 



] MUSCOLI 



Le vie nervose implicate nel coordinamento visivo del movimento sono illustrate in questo 
schema. L'informazione proveniente dalla metà del campo visivo di ciascun occhio va al 
chiasma ottico e, passando per uno dei corpi genicolati laterali, raggiunge la corteccia dell'emi- 
sfero conlrolatcrale del cervello. Le aree visive di ciascun emisfero si proiettano poi al lalo omolale- 
rale del ponte, ma le vie nervose si incrociano di nuovo nel cervelletto e nel midollo spinale. 



74 



75 



tito cellule visive a una analoga profon- 
dità. Le cellule che si trovavano al di 
fuori di un'area ben definita del ponte 
non rispondevano affatto allo stimolo 
visivo. Queste osservazioni fanno pensa- 



re che le cellule visive del ponte siano 
dislocate solamente in una regione ben 
determinata. 

Nelle zone circostanti il ponte, incon- 
trammo cellule che rispondevano ad altri 



stimoli sensoriali come suoni o stimola- 
zioni tattili del pelo o della pelle del 
gatto. Sebbene le proprietà di queste cel- 
lule non siano state studiate dettagliata- 
mente, si scopri che anche queste sì tro- 





UNEA MEO ANA 



' 17 

19 



AREA 

SOPRASILVIANA 
" LATERALE 




1 



La micro fotografi a mostra una lesione sperimenlale nell'area soprasil- 
viana laterale della corteccia visiva di un gatto messa in evidenza 
mediante una sezione condotta attraverso la metà del cervello di un 
gatto. Lesioni di questo tipo distruggono le cellule nervose in aree 
circoscrii te della corteccia visiva portando alla degenerazione delle 



lunghe film' cellulari, alcune delle quali si protei tano alle cellule visive 
del punte. Le fibre degenerale possono essere sfitti iva mente indivi- 
duate utilizzando la tecnica di impregnazione mediante argento di 
Nauta che si rivela un efficace strumento per seguire il percorso, 
spesso assai tortuoso, delle fibre che cotlegano la corteccia al ponte. 




Le fibre degenerale di cellule corticoponline, risullato di lesioni nella 
corteccia visiva, appaiono come linee nere irregolarmente frammenta- 



te in uuesia microf otografia di una solfile sezione di ponte. Le fibre 
sono siale evidenziate con la tecnica d'impregnazione con sali d'argento. 



76 



vavano in raggruppamenti distinti. Tutte 
le cellule del ponte analizzate reagivano 
a un solo tipo di stimolo, fosse esso 
visivo, acustico o tattile; non abbiamo 
ancora scoperto cellule che ricevano in- 
formazioni convergenti da più di un or- 
gano di senso. 

Circa la metà delle cellule visive del 
ponte che abbiamo studiato potevano 
essere attivate da un vivido lampo di 
luce, anche se il lampo raramente era 
lo stimolo migliore. La reazione al lam- 
po, però, era utile perché ci metteva in 
grado di misurare con precisione la la- 
tenza dell'attivazione, cioè il tempo in- 
tercorrente fra il lampo e il primo poten- 
ziale a punta. Conoscendo questo tem- 
po, potevamo stabilire la via più breve 
attraverso la quale le cellule del ponte 
ricevevano le loro afferenze visive. Tre- 
dici delle 232 cellule analizzate venivano 
attivate circa 20 millesimi di secondo 
dopo il lampo. Questo breve periodo di 
latenza è sufficiente a consentire sola- 
mente il passaggio di un impulso attra- 
verso poche sinapsi nella corteccia visiva 
sulla via verso il ponte. 

Quale tipo di informazione è trasmessa 
attraverso il ponte verso il cervellet- 
to? Per rispondere a questa domanda 
abbiamo studiato i campi recettivi delle 
cellule visive del ponte, cioè le regioni 
del campo visivo in cui gli stimoli lumi- 
nosi modificano la frequenza dj scarica 
delie cellule visive del ponte. La grandez- 
za dei campi recettivi andava da tre o 
quattro gradi fino a un completo emi- 
campo del campo visivo e, in media, essi 
erano più grandi di quelli della corteccia 
visiva. L'ampiezza di questi campi recet- 
tivi potrebbe essere spiegata solamente se 
i messaggi in uscita di più cellule nella 
corteccia, ciascuna con un proprio pic- 
colo e differente campo recettivo, con- 
vergessero su una singola cellula del ponte. 
Sebbene le cellule visive del ponte rice- 
vano messaggi dalla corteccia visiva, le 
loro risposte differiscono marcatamente 
da quelle delle cellule della corteccia. 
Quasi tutte le cellule del ponte da noi 
analizzate reagivano al massimo grado di 
fronte a una particolare direzione del 
movimento dello stimolo; nella maggior 
parte dei casi, il movimento dello stimo- 
lo nella direzione opposta o non aveva 
alcun effetto sulle cellule o le inibiva 
attivamente. Abbiamo in particolare stu- 
diato la sensibilità al movimento di alcu- 
ne cellule, variando la velocità dello sti- 
molo e misurando il grado dì efficacia 
delle diverse velocità nel provocare la 
scarica delle cellule. Le cellule del ponte 
reagivano a una vasta gamma di veloci- 
tà, da pochi gradi angolari al secondo 
fino a più di mille gradi al secondo, 
senza perdere la propria specificità dire- 
zionale, sebbene vi fosse una velocità 
ottimale per ogni cellula. Tale gamma di 
velocità era maggiore di quella delle cel- 
lule della corteccia, e anche questo ci 
conferma che più cellule corticali, cia- 
scuna con una velocità ottimale, possono 
convergere su una singola cellula situata 
nel ponte. 





PONTE 



Foci di degenerazione prodotti da lesioni sperimentali in due aree della corteccia visiva del gal- 
lo possono essere individuati eseguendo una sezione trasversale del ponte Un basso netta figura), 
l puntini neri indicano l'arca di degenerazione che segue a una lesione nell'area 18; i puntini in 
colore rappresentano la degenerazione che segue a una lesione nell'area soprasilviana laterale del- 
l'emisfero opposto. I* aree visive di ciascun emisfero si proiettano a regioni sovrapponentisi ai due 
tati del pome; per chiarezza, tullavia, è mostrata solo un'area di degenerazione per ciascun lato. 



La direzione e la velocità sono dunque 
i fattori più importanti nel determinare 
la frequenza di scarica delle cellule del 
ponte, mentre di minore importanza ri- 
sulta essere la forma e l'orientazione del- 
lo stimolo. Le cellule del ponte tuttavia 
differiscono nella loro sensibilità a sti- 



100 



o 

i; 

Vi 

2 



< 

geo 

z 

ni 

o 

CE 
111 
0. 



moli di differenti configurazione e di- 
mensione. Stimoli grandi contenenti mol- 
ti punti erano i più efficaci nell'attivare 
circa la metà delle cellule pontine esami- 
nate. Alcune cellule avevano una marca- 
ta preferenza per questi stimoli a punti 
multipli e non erano attivate affatto da 



te 

2 

tr 

Q 
O 



40 



20 

















\ 








\ 








\ 

I 






^\ 





10 100 1000 

VELOCITA DELLO STIMOLO (GRADI AL SECONDO) 



10 000 



Le risposte alla velocilà dello stimolo di tre cellule visive del ponte dimostrano che esse sono sensibili 
a un'ampia gamma dì velocilà: da pochi gradi angolari al secondo a più di 1000 gradi al secondo. 
Esiste, tuttavia, una velocilà ottimate per ciascuna cellula. Le risposle sono state misurate con un 
oscilloscopio contando il numero dei potenziali a punta per ogni passaggio dello stimolo 
e scrivendo il numero come percentuale della frequenza massima di scarica della cellula. 



77 









mmmmm 



mmm 






f 



m 



- 



l.e risposte a sii moli visivi di particolari cellule nel ponte dimostrano 
la notevole specificità di queste cellule per diverse configurazioni dello 
stimolo. La capacità di risposta della cellula a ciascuno stimolo visivo 
è stala determinata presentando lo stimolo nel campo visivo e regi- 



strando le scariche della cellula con un microelei t rodo collegato a un 
oscilloscopio. Tutti e sei gli stimoli evocavano una risposta, ma quello 
più efficace per questa cellula in particolare era una struttura di punti 
bianchi su sfondo nero che si muoveva in una specifica direzione (6). 



ISOLATORE 
DELLO STIMOLO STIMOLATORE 



DISCRIMINATORE 
DI LIVELLO 



OSCILLOSCOPIO 




AMPLIFICATORE 



A. 



IMPULSO INNESCANTE 

MICROELETTRODO REGISTRATORE 



! riMOi o 



ELETTRODO STIMOLATORE — 
BIPOLARE 




i. 'esperimento di «invasione antidromiea» permeile di identificare le 
cellule della corteccia visiva che inviano fibre al ponte stimolando le 
terminazioni nervose dell'area visiva pontina e rilevando gli impulsi 
lungo le fibre sino ai corpi cellulari nella corteccia. Per essere sicuri 
che la fibra e il corpo cellulare appartengano alla stessa cellula e non 
sia interposto un relè sinaplico, la cellula da cui si registra può essere in- 



QCCHIO 



iti il I il -i Maritare mediante uno stimolo visiv ». Questo segnale \ iene poi 
amplificalo e usalo per innescare lo stimolatore che dà il via a un 
impulso antidromico alla termina/ione del nervo. Se la cellula slimolala 
e quella attivala visivamente coincidono, i due impulsi sì scontreranno 
a metà strada lungo la fibra e l'impulso nervoso anlidromico non 
raggiungerà il corpo cellulare e non apparirà sull'oscilloscopio. 



78 



un singolo punto. Esse scaricavano in ri- 
sposta sìa a molti punti neri su sfondo 
bianco, sia a molti punti bianchi su sfon- 
do nero, ma in genere i punti bianchi 
erano i più efficaci. Altre cellule del 
ponte erano attivate preferenzialmente 
da un singolo punto in movimento. Esi- 
steva generalmente una grandezza otti- 
male, per questo punto, e stimoli grandi 
spesso non attivavano affatto la cellula. 
Per la maggior parte delle cellule pontine 
le sbarre e ì margini con particolari o- 
rientazionì non costituivano stimoli più 
efficaci dei punti, e spesso lo erano me- 
no. Questo comportamento è in contra- 
sto con quello osservato nella maggior 
parte delle cellule corticali che sono mol- 
to sensibili ai margini orientati, ma poco 
ai punti. 

Le proprietà della risposta delle cellule 
visive del ponte ci dicono qualcosa circa 
il tipo di informazione trasmessa dalla 
corteccia visiva al cervelletto. Quali sti- 
moli naturali possono attivare queste cel- 
lule? Le cellule che rispondono preferen- 
zialmente a un singolo punto in movi- 
mento potrebbero essere specializzate nel 
seguire la velocità e la direzione del mo- 
vimento di un sìngolo aggetto; nel caso 
del gatto, un piccolo animale in corsa. 
Le cellule che rispondono al movimento 
di ampi campi strutturali preferiscono in 
genere il movimento dì allontanamento 
dal meridiano verticale e verso il basso, 
perciò potrebbero essere responsabili del- 
l'analisi della direzione del terreno visto 
da un animale che cammina o corre. 

Poiché il comportamento delie cellule 
del ponte era così diverso da quello 
descritto dalle cellule visive corticali, de- 
cidemmo di studiare come l'informazio- 
ne viene analizzata nella corteccia in mo- 
do tale da dare origine a risposte così 
diverse nelle cellule del ponte. Per af- 
frontare questo problema insieme a Ba- 
ker e Mower, ci siamo serviti di una tec- 
nica nota come «invasione antidromiea». 
La tecnica consiste nella stimolazione e- 
lettrica degli assoni delle cellule conico- 
pontine (le cellule della corteccia che si 
proiettano alle cellule del ponte) alla loro 
estremità, così che un potenziale a punta 
viene condotto attraverso la fibra e inva- 
de il corpo cellulare. La conduzione del- 
l'impulso nervoso dall'estremità dell'as- 
sone al corpo cellulare è detta antidromi- 
ea, cioè in direzione opposta a quella 
normale. Se, con un microelettrodo, si 
registrano gli impulsi nervosi inviati al 
corpo cellulare, si può vedere come un 
impulso nervoso arrivi pochi millesimi di 
secondo dopo l'applicazione dello stimo- 
lo all'assone (L'esatta misura del ritardo 
dipende dalla lunghezza e dal diametro 
dell 'asso ne.) Con questa tecnica è possi- 
bile sapere se una cellula della corteccia 
visiva ha un asso ne che si proietta al 
ponte e, in questo caso, studiare le pro- 
prietà delia cellula stessa. 

Solo una piccola percentuale dei mi- 
lioni di cellule della corteccia visiva in- 
viano i loro assoni a una determinata 
struttura del ponte e perciò scoprire le 
cellule corticopontine non è facile. Per 



aumentare le nostre possibilità di succes- 
so piazzammo quattro elettrodi nella cor- 
teccia visiva e, a ogni stimolazione che 
veniva applicata, passavamo dall'uno al- 
l'altro per vedere se arrivava un impulso; 
l'impianto stimolatore era anch'esso for- 
mato da quattro elettrodi sistemati nel- 
l'area visiva del ponte. In questo modo riu- 
scimmo a registrare gli impulsi provenien- 
ti da 57 cellule corticopontine isolate. 

Vi sono due modi in cui una stimola- 
zione elettrica del ponte potrebbe provo- 
care l'attivazione di una cellula corticale: 
direttamente, attraverso un impulso an- 
tidromico condotto dall'assone della cel- 
lula, o indirettamente, stimolando una 
cellula intermedia che si comporta come 
un relè sinaptico nei confronti delle cel- 
lule dalla quale si sta registrando. Per di- 
stinguere tra queste due possibilità, spe- 
rimentammo il metodo da noi chiamato 
della «collisione» con ciascuna cellula. 
La collisione consiste nel fare scaricare 
la cellula in risposta a uno stimolo visivo 
(per- esempio un segnale con molti punti) 
per poi amplificare il potenziale a punta 
o spìke provocato e usarlo per innescare 
uno stimolatore elettrico che, a sua vol- 
ta, fa partire uno spìke antidromico nel- 
l'assone della cellula. Il circuito elettrico 
esterno funziona quasi immediatamente 
cosicché, se il corpo cellulare stimolato 
visivamente e Passone stimolato elettri- 
camente appartengono allo stesso neuro- 
ne, lo spìke antidromico che rìsale Pas- 
sone partendo dall'elettrodo stimolatore 
incontrerà lo spìke evocato visivamente 
che scende lungo l'assone. Quando que- 
sto accade, ì due impulsi collìdono e 
scompaiono perché il segmento dell'as- 
sone che si trova dietro a ogni impulso, è 
temporaneamente incapace di condur- 
re. Lo spìke antidromico, perciò, non 
raggiungerà il corpo cellulare e non ap- 
parirà sullo schermo dell'oscilloscopio. 
Se, d'altra parte, lo stimolatore attiva la 
cellula indirettamente tramite un relè si- 
naptico, non vi sarà collisione e lo spìke 
evocato apparirà sullo schermo dell'oscil- 
loscopio. 

Una sorprendente scoperta scaturita 
dagli esperimenti di invasione antidromi- 
ea è che le cellule corticopontine com- 
prendono un sottogruppo di cellule cor- 
ticali che si comportano molto più come 
cellule pontine che non come cellule del- 
la corteccia. Gran parte della convergen- 
za necessaria a produrre i grandi campi 
recettivi e l'ampia gamma delle velocità, 
tipici delle cellule visive del ponte, sem- 
bra dunque, verificarsi nella corteccia. 
Una proprietà per cui le cellule corticali 
differiscono da quelle del ponte è che le 
cellule corticopontine sono più sensibili 
all'orientazione degli stimoli lineari. La 
preferenza di orientazione di una data 
cellula per uno stimolo lineare orientato 
però, non è correlata con la sua prefe- 
renza di direzione per uno schema di 
punti in movimento. Può darsi che molte 
di queste cellule convergano su una sin- 
gola cellula del ponte in modo tale che la 
loro specificità direzionale sia preserva- 
ta, nonostante sìa andata perduta la pre- 
ferenza per una precisa orientazione. 



Ltauori 
Novità 

M. Suard, L, Praud. B. Praud 

















Ewald E. Selkurt 

Fisiologia 

■ cura di I. Tara Genoino, G. Martino, 
L. Foti e A. Barletta 
Lire 16.S0O 

F. A. Miles 

Cellule eccitabili 

a cura di A. Barletta, L. Foti 
e I. Tara Genoino 
Lire 1300 

M. Suard, L. Praud, 
B. Praud 

Elementi di 

chimica generale 

a cura di L. del Re 
Lire S.SOO 

Gruppo Energia Solare 

17 clima come 
elemento di progetto 
in edilizia 

Lire 6.300 



Liguori Editore Napoli 
Distribuzione Dielle: Mi- 
lano Torino Padova Ge- 
nova Firenze Bologna 
Pescara Roma Sassari 
Napoli Bari Palermo 




79 



Lo studio del ribosoma 
mediante * ' scattering ' ' 

L 'arganello della cellula vìvente dove si formano le proteine è costituito 
da 58 grosse molecole la cui disposizione nello spazio può essere 
determinata irradiando il ribosoma con un fascio di neutroni 

di Donald M. Engelman e Peter B. Moore 



Si può accedere in due modi alla com- 
prensione di una struttura biologica. 
Un metodo ormai classico consiste 
nell 'analizzare la materia vivente in una 
scala sempre più piccola, esaminando 
prima i tessuti, poi le cellule e, infine, le 
parti costituenti dì queste ultime. Lo stru- 
mento principale di queste indagini è 
il microscopio, intendendo per questo sia 
gli strumenti ottici, sia il microscopio 
elettronico degli anni più recenti. Il se- 
condo metodo procede in direzione op- 
posta, dalle strutture più piccole a quelle 
più grandi, definendo la disposizione de- 
gli atomi in singole molecole di crescente 
complessità. Per ottenere questo risulta- 
to, la tecnica più importante consiste 
nello studiare le immagini di diffrazione 
dei raggi X. Negli ultimi vent'anni que- 
sto genere di indagini ha rivelato la di- 
sposizione spaziale degli atomi di alcune 
dozzine di proteine. 

Tra questi due campi d'osservazione vi 
è spesso una lacuna; alcuni aspetti delle 
cellule sono troppo minuti perché le loro 
strutture possano essere determinate dal- 
la microscopia elettronica, ma troppo 
grandi per essere ricostruiti nei particola- 
ri atomici da studi di diffrazione dei 
raggi X. Un esempio è dato dal riboso- 
ma, un organetto che si trova nelle cellu- 
le (e di solito in grande numero) e sul 
quale il codice genetico viene tradotto 
nella sua forma finale: la sequenza degli 
amminoacidi in una molecola proteica. 
Il ribosoma è sufficientemente grande da 
essere visibile nelle microfotografie elet- 
troniche, ma in queste si può discernere 
solo il profilo delia sua forma; la quanti- 
tà di informazioni strutturali che si pos- 
sono trarre così è, però, limitata. D'altra 
parie, l'organello è molto più grosso del- 
le strutture che sono state giudicate adat- 
te, finora, per essere analizzate mediante 
diffrazione dei raggi X. Esso consta di 
55 molecole proteiche separate (ciascuna 
è in sé un'entità complessa) e di 3 mole- 
cole di RNA, di notevoli dimensioni. 

Un'informazione strutturale in questa 



scala intermedia è essenziale per capire 
come macromolecole biologiche quali le 
proteine siano organizzate in unità fun- 
zionali. Nel caso del ribosoma, è difficile 
capire come esso svolga il suo compito 
nella sintesi proteica senza prima cono- 
scere i legami tra i suoi componenti. 

Negli ultimi quattro anni abbiamo ela- 
borato un metodo per determinare la 
struttura di complessi macromolecolari 
di queste dimensioni e, a partire dallo 
scorso anno, abbiamo cominciato ad ap- 
plicare questo metodo allo studio di una 
subunità strutturale de! ribosoma. La sua 
base consiste nello scattering ossia nello 
studio della diffusione di un fascio di 
neutroni da parte di subunità ribosomali 
preparate in modo speciale. Il risultato 
finale della nostra indagine, se avrà suc- 
cesso, sarà una mappa della distribuzio- 
ne nello spazio di tutte le proteìne delia 
subunità. 

T 1 «dogma centrale» della biologia mo- 
*■ lecolare stabilisce che l'informazione 
nella cellula fluisce dal DNA, all'RNA e 
alle proteine. Il codice genetico, rappre- 
sentato in una molecola di DNA dalla 
sequenza di basi, viene dapprima repli- 
cato per dare una molecola di RNA, che 
passa dal nucleo al citoplasma come RNA 
messaggero e che poi serve come stampo 
per la sintesi di una proteina. Tale sinte- 
si può avvenire soltanto in presenza di 
ribosomi. I ribosomi coordinano la tra- 
duzione del codice: essi interagiscono con 
l'RNA messaggero e riuniscono le altre 
molecole necessarie per l'ordinato allun- 
gamento della catena proteica. Le princi- 
pali, tra queste, sono le unità componen- 
ti della proteina che si va formando: gli 
amminoacidi, ognuno portato da una 
specie particolare di un altro tipo di 
RNA, l'RNA di trasporto. Sono anche 
indispensabili parecchi fattori che svol- 
gono una funzione catalitica mentre l'e- 
nergia spesa per formare i legami tra gli 
amminoacidi è fornita dal legame fosfo- 
rico ad alto contenuto energetico della 



piccola molecola di guanosintri fosfato. 

Il ribosoma occupa ovviamente una 
posizione centrale nel flusso d'informa- 
zione dal gene alle proteine, ma abbiamo 
solo un'idea rudimentale di come esso 
funzioni. Si sa che consiste di due sub- 
unità, designate come grande e piccola, 
le quali si legano separatamente all'RNA 
messaggero durante la fase di avvio della 
sìntesi proteica. La grossa subunità è co- 
stituita a sua volta da una copia di cia- 
scuna di 34 molecole proteiche diverse e 
da due molecole di RNA ribosomale (una 
più grande dell'altra); il suo peso mole- 
colare totale è circa 1,6 x 10*. La picco- 
la subunità consta di 21 proteine e di una 
molecola di RNA; il suo peso molecolare 
è di poco inferiore al milione. 

In teoria, le subunità ribosomali e l'in- 
tero ribosoma potrebbero essere studiate 
mediante diffrazione dei raggi X; ma 
queste indagini esigono che il campione 
da analizzare sia in forma cristallina e 
finora non è stato possibile ottenere in 
questo stato né i ribosomi né le loro 
subunità. Ma, anche se questo fosse pos- 
sìbile, l'analisi dell'immagine di diffra- 
zione dei raggi X, generata da una strut- 
tura così complessa, presenterebbe for- 
midabili difficoltà. Le componenti pro- 
teiche delle subunità, che dovrebbero es- 
sere più facili da cristallizzare, continua- 
no a essere candidate per un'analisi strut- 
turale mediante raggi X. 

Oltre al nostro, sono stati elaborati 
parecchi metodi per eseguire un'analisi 
strutturale senza fare uso della cristallo- 
grafia a raggi X. Il primo che abbia dato 
risultati sostanziali utilizza sostanze chi- 
miche che possiedono due gruppi reattivi 
i quali legano assieme molecole adiacenti 
nella struttura. Frammentando i riboso- 
mi e determinando quali molecole sono 
state legate tra loro è possibile compilare 
perlomeno una lista parziale delle protei- 
ne che sono più vicine tra loro. Il meto- 
do è stato impiegato in parecchi labora- 
tori, in particolare in quello di Robert R. 
Tra ut presso l'Università della Califor- 



82 




In Questa fotografia al microscopio elettronico, eseguita da James A, 
I.ake. le particelle ribosomali appaiono come oggetti di forma irregola- 
re. Ognuna è una componente, chiamala piccola suhunità, di un riboso- 
ma del batterio Escherkhia coli, Un'analisi delle varie microfotografie 
elettroniche può dare un'idea della forma globale della subunilà, ma ta- 
li immagini forniscono scarse informazioni circa la struttura interna. 



D'altra parte, le subunità sono troppo grosse per essere studiale conve- 
nientemente con metodi, come lo studio delie immagini di diffrazione 
dei raggi X, che permettono di costruire una mappa della struttura 
atomo per atomo. Gli studi mediante scattering neulronico danno in- 
formazioni su una scala intermedia e hanno rivelato parecchi aspetti 
della struttura della piccola subunilà del ribosoma di E. coli. 



83 




o 
u 

<E 
lu 

u 

in 
lu 

Q 

< 
5 



a 
E 



PESO MOLECOLARE 
1 600 000 



34 PROTEINE 

AVENTI PESO MOLECOLARE 

TRA 9000 E 28 500 



DUE MOLECOLE DI RNA 

AVENTI PESO MOLECOLARE 

TRAI 100 000 E 36 000 




s 




PESO MOLECOLARE 
900 000 



2\ PROTEINE 
AVENTI PESO MOLECOLARE f: S8 
TRA 10 700 E 65 000 




UNA MOLECOLA DI RNA 

AVENTE PESO MOLECOLARE 

560 000 



-6%m 



Le molecole costitutive del ribosoma di /■'. coti ineludono 55 proteine 
e 3 molecole di RNA, che si organizzano a formare due subunità. 
Finora sul" la piccola subunità è stala analizzata mediante scattering 
neutronico. Essa consiste di 21 proteine, con pesi molecolari compresi 
Ira 10 700 e 65 000, e una singola molecola di RNA con peso 



molecolare di 560 000. Lo scopo dell'analisi è quello di determinare 
come tali molecole siano disposte nello spazio e, per il momento, sì 
sono prese in considerazione soltanto le proteine. Queste e le subunità 
sono rappresentate, nell'illusi razione, come sfere i cui volumi sono prò- 
porzionali ai loro pesi molecolari, ma molte proteine non sono sferiche. 



nia a Davis e in quello di C.C. Kurland 
all'Università di Uppsala in Svezia. Geor- 
ge Stoffler dell'Istituto Max Planck di 
Genetica molecolare di Berlino e James 
A. Lake delta New York University 
School of Medicine hanno ideato, inve- 
ce, una tecnica immunologica. Anticorpi 
specifici nei confronti di particolari pro- 
teine ribosomali si legano ai riho so mi e 
formano complessi che si possono esa- 
minare al microscopio elettronico. Si può 
determinare la posizione dell'anticorpo 
che indica la posizione della proteina 
corrispondente nella struttura. In un al- 
tro tipo d'indagine, realizzata da Charles 
R. Cantor e collaboratori della Columbia 
University, due proteine prescelte sono 
marcate con molecole di coloranti fluo- 
rescenti, sensibili a diverse lunghezze di 



onda. Uno dei coloranti viene quindi sti- 
molato con radiazioni della giusta lun- 
ghezza d'onda; l'efficacia con cui la sua 
energia di eccitazione si trasmette all'al- 
tro colorante è una misura della distanza 
tra le due proteine. Altri studi ancora 
hanno contemplato la misurazione della 
diffusione di raggi X in condizioni che 
non richiedono l'uso di un campione 
cristallizzato. Ciascuno di questi metodi 
è in grado di contribuire alla conoscenza 
della struttura del ribosoma. 

Il nostro è un metodo esclusivamente 
fisico e non dipende direttamente dalle 
proprietà biologiche e chimiche del ribo- 
soma. Gli esperimenti di fisica sono in 
genere lineari nella progettazione, anche 
se - come vedremo - essi non sono sem- 
pre semplici nell'esecuzione. Nel nostro. 



una soluzione di subunità ribosomali vie- 
ne posta lungo un fascio di neutroni, i 
quali interagiscono con il campione e in 
alcuni casi variano la loro direzione di 
flusso. Questi cambiamenti direzionali 
rappresentano un'informazione sulla 
struttura del campione. Il problema è 
riuscire a individuarli e interpretare cor- 
rettamente l'informazione da essi fornita. 

~U inora tutte le indagini sulle strutture 
biologiche hanno impiegato la luce 
visibile, gli elettroni e i raggi X. Per uti- 
lizzare la luce e ì fasci di elettroni è pos- 
sibile costruire obiettivi che permettono 
di ottenere un'immagine della struttura 
che deve essere studiata. D'altra parte, i 
raggi X non si possono mettere a fuoco e 
non è possibile costruire un microscopio 



a raggi X, Invece di un'immagine, i raggi 
X danno soltanto un diffrattogramma, 
cioè una registrazione delle direzioni e 
delle intensità delle onde deviate per in- 
terazione con il campione da analizzare. 
Alla stessa stregua dei raggi X, anche i 
neutroni non possono essere messi a fuo- 
co e possono essere registrati solo i loro 
angoli e la loro intensità di scattering. 

I neutroni differiscono per un aspetto 
importante da tutti gli altri tipi di radia- 
zioni impiegate nelle indagini biologiche. 
La luce, gli elettroni e i raggi X interagi- 
scono quasi esclusivamente con gli elet- 
troni presenti in una molecola. 1 neutro- 
ni non interagiscono affatto con gli elet- 
troni, ma con i nuclei atomici. Ne conse- 
gue che essi possono essere deviati in 
modo diverso dagli atomi che rappresen- 
tano isotopi diversi dello stesso elemen- 
to. Tali atomi hanno lo stesso numero di 
elettroni e sono quindi virtualmente indi- 
stinguibili per un fascio di elettroni e per 
un'onda elettromagnetica; nei loro nuclei 
essi hanno, tuttavia, lo stesso numero di 
protoni, ma un diverso numero di neu- 
troni. Tra gli isotopi di un dato elemen- 
to, si hanno soltanto delle trascurabili 
differenze nelle proprietà chimiche, ma 
possono esservi invece grosse differenze 
nelle interazioni dei nuclei con neutroni 
di opportuna energia: si dice che gli iso- 
topi hanno diverse lunghezze dì scatte- 
ring neutronico. 

Una delle maggiori differenze di lun- 
ghezza dello scattering neutronico è quel- 
la esistente tra l'idrogeno e il deuterio, 
due isotopi i cui nuclei contengono ri- 
spettivamente un protone solitario e un 
protone e un neutrone. Poiché le mole- 
cole biologiche contengono numerosi a- 
tomi di idrogeno, vi è una grossa diffe- 
renza nello scattering neutronico tra una 
proteina che contenga solo idrogeno e 
una proteina in cui la maggior parte 
degli atomi di idrogena siano stati sosti- 
tuiti dal deuterio. Invece, per le proprie- 
tà chimiche, queste due molecole sono 
poco diverse. Il deuterio si comporta 
dunque come un rivelatore adatto per 
esperimenti di scattering neutronico su 
materiale biologico. Per sostituzione di 
tutti gli atomi di idrogeno in una mole- 
cola proteica con atomi di deuterio, la 
proteina diventa opaca al fascio di neu- 
troni, anche se le sue proprietà biochimi- 
che si sono modificate di poco. 

In pratica, si preparano piccole subu- 
nità ribosomali in cui due delle 21 protei- 
ne siano massicciamente marcate con 
deuterio; esse vengono poi poste, in so- 
luzione, lungo il fascio di neutroni e si 
conta il numero di questi ultimi che ven- 
gono deviati a vari angoli. L'informazio- 
ne più significativa che si trae da questo 
procedimento è la misura della distanza 
tra le proteine marcate con deuterio. 

Negli anni venti, Louis de Broglie ha 
avanzato l'ipotesi che la materia, e in 
particolare gli atomi e i loro costituenti, 
potessero essere considerati formati o da 
particelle o da onde. La scelta di quale 
delle due convenzioni adottare è spesso 
una questione dì convenienza. Nel no- 
stro esperimento è di gran lunga pili con- 



RIBOSOMA 



GRANDE 
RNA MESSAGGERO | SUBUNITA 



RNA 
DI TRASPORTO 



RNA DI TRASPORTO 
E AMMINOACIDO 
JFORMILMETIONINA) 




FATTORE DI 
ALLUNGAMENTO Tu 
(RIGENERATO) 
GDP 



FATTORE DI 
ALLUNGAMENTO G 

(RIGENERATO) 
E GDP 



RNA FATTORE DI 

01 TRASPORTO ALLUNGAMENTO G 
EGTP 



L 



La funzione biologica del ribosoma consiste nel mediare la traduzione del codice genetico nella 
sequenza di amminoacidi presenti in una proteina. Lo stesso codice è rappresentato dalla 
sequenza di basi nucleolidiche presente in una molecola di RNA messaggero. Nella fase iniziale 
(Iniziazione), il ribosoma riconosce il punto di partenza In un segmento di RNA messaggero e 
lega una molecola di RNA di trasporto che porta con sé un singolo amminoacido. In tutte le 
proteine batteriche, questo primo amminoacido è ta formi I me tio ulna. Nella fase di allungamen- 
to, un secondo amminoacido si lega al primo. Il ribosoma scivola quindi sulla molecola di RNA 
messaggero e il ciclo di allungamento si ripete. Quando si raggiunge la fine del messaggio 
genetico, la catena di amminoacidi si ripiega spontaneamente per formare una proteina. 
Successivamente il ribosoma si scinde nelle sue due subunità, che si ricongiungono prima che un 
nuovo segmento di RNA messaggero venga tradotto. La sintesi proteica e facilitata da un certo 
numero di proteine catalitiche (fattori di iniziazione, di allungamento e di terminazione) e dal 
guanosintrìfosfato (GTP), che libera energia quando si trasforma in guanosindi fosfato (liDP). 



84 



85 




CENTRIFUGAZIONE 
A ELEVATA VELOCITA 



RIBOSOMI « SQPRANATANTE 

I CENTRIFUGAZIONE 




À GRANDE 



PICCOLA _ 
SUBUNITA' T W SUBUNITA 

I CENTRIFUGAZIONE 





RNA r*^ 



**• PROTEINE 
•*• NORMALI 



* tJv 



• • 



• PROTEINE MARCATE 

• CON DEUTERIO 



ESTRAZIONE 
CON FENOLO 



CROMATOGRAFIA 
A SCAMBIO IONICO 



V 




wuuuuuuuuuuuuuuu uuuuuuuuuuuuuuuu 




RNA PURIFICATO 




/" 2 PROTEINE MARCATE CON DELfTERIO 



PICCOLE SUBUNITA RICOSTITUITE 
CON DUE PROTEINE 
MARCATE CON DEUTERIO 



Per la preparazione delle pìccole subunilà ribosomali per ['analisi strutturale mediante scattering 
neutronico si marcano con deuteri» due delle 21 proteine costituenti l'isotopo dell'idrogeno con 
un peso atomico 2. 1 batteri vengono coltivati sia in acqua normale, sia in ossido di deuterio o 
acqua pesante (U t O). Nelle proteine estratte dai batteri coltivati in acqua pesante tutte o quasi te 
posizioni normalmente occupate dall'idrogeno sono occupale dal deuterio. Dai bai Ieri si 
eslraggonu i ribosomi, da questi si separano le subunità e dalle piccole subunilà si estrae l'RN \ 
ribosomale, che lascia quindi dietro di sé una serie di 21 proteine. Queste, sia partendo dai 
ribosomi normali, sia partendo dai ribosomi marcali con deuterio, sono separale e purificate 
con la tecnica della cromatografìa a scambio ionico. Dalla serie delle proteine normali se ne 
scartano due; le due corrispondenti vengono selezionate dalla serie delle proteine marcale. Le 
19 normali e le 2 marcate vengono quindi mescolale con RNA ribosomale normale: si ottiene la 
riunione spontanea delle piccole subunità contenenti due proteine marcate con deuterio che differi- 
scono notevolmente da quelle normali per la capacità di provocare lo scattering neu ironico. 



veniente considerare i neutroni come on- 
de piuttosto che come particelle. E que- 
sto perché i fenomeni che osserviamo 
sono la diffrazione e l'interferenza dei 
neutroni, effetti di solito associati con 
radiazioni di natura ondulatoria. 

T neutroni impiegati nel nostro esperi- 
*■ mento hanno una lunghezza d'onda 
(determinata dalla loro energia e quindi 
dalla toro velocità) di alcuni decimi di 
nanometro. Quando queste onde di neu- 
troni passano vicino alle proteine marca- 
te con deuterio subiscono una diffrazio- 
ne, o deviazione; inoltre, poiché ogni su- 
bunità ribosomale contiene due proteine 
marcate con deuterio, le onde di f frati e 
da ogni coppia di proteine interferiscono 
tra loro. 

Quando le onde luminose emesse da 
un'unica fonte passano attraverso un 
paio di fessure parallele su uno schermo 
opaco, generano un'immagine d'interfe- 
renza formata da parecchie frange e ban- 
de parallele rispettivamente chiare e scu- 
re. L'effetto osservato nei nostri esperi- 
menti di scattering dei neutroni è analo- 
go: le due proteine marcate con deuterio 
sono equivalenti alle due fessure e l'im- 
magine che si genera consiste di anelli 
concentrici in cui il flusso dei neutroni è 
alternativamente più forte e più debole 
del livello dì base. Nell'esperimento otti- 
co la distanza ira due frange, per qual- 
siasi lunghezza d'onda data, è determi- 
nata dalla distanza tra le fessure. Nell'e- 
sperimento di scattering neutronico, la 
distanza tra gli anelli è correlata alla di- 
stanza tra le proteine marcate. 

Vi sono però delle diversità tra il no- 
stro esperimento e l'analogo esperimento 
ottico. Ne! nostro, non vi è un solo paio 
di fessure, ma molte paia, corrispondenti 
al numero elevato di ribosomi presenti 
nel campione; queste paia sono orientate 
a caso rispetto al fascio di neutroni per- 
ché i ribosomi sono in soluzione. La 
teoria che è alla base dell' interpretazione 
di una simile immagine di diffrazione è 
stata elaborata nel 1915 da Peter J.W, 
Debye, il quale voleva descrivere lo scat- 
tering di raggi X da parte di un gas 
biatomico. Lo scattering di neutroni nel 
nostro esperimento è simile: in ambedue 
i casi le onde vengono di f fratte da ogget- 
ti casualmente orientati che hanno due 
centri di scattering separati da una di- 
stanza fissa. 

La teoria di Debye prevede che, a un 
grafico che mostri l'intensità della radia- 
zione di f fratta in funzione della distanza 
dall'asse del fascio, dia il suo contribu- 
to anche una curva con oscillazione si- 
nusoidale, che si attenua in corrispon- 
denza degli angoli più grandi di devia- 
zione. Vale a dire che si osserveranno 
delle frange d'interferenza ed esse saran- 
no cospicue per i piccoli angoli di diffra- 
zione, mentre svaniranno per grandi an- 
goli. La cosa più importante per le no- 
stre ricerche è che la distanza tra gli 
anelli di interferenza è in rapporto inver- 
so alla distanza tra i centri di scattering. 
Se questi (nel nostro caso le proteine 
marcate con deuterio) sono vicini, la cur- 




RIVELATORE 



' ! :- 



COLLIMATORE 



*f 



CAMPIONE 



MONITOR 



Il fascio di neulroni usato negli studi sul ribosoma viene prodotto 
dallo High I lux Beam Keactor del Rrookhaven National Laboralory. 
I neulroni vengono emessi in seguilo alla fissione dei nuclei dell'uranio 
225 nel nocciolo del reattore e vengono rallentali dalle collisioni 
miilii pie che hanno con i nuclei del mantello di acqua pesame che 
circonda il nocciolo: escono poi dal reattore attraverso un'apertura. 



La distribuzione delle energie Ira questi neulroni rallentali ricorda 
quella di un gas in equilibrio termico; essi sono chiamali, infalli, 
neutroni termici. Il lascio di neulroni termici viene diffuso in funzione 
delle singole energie dalla riflessione che si verifica a livello dei piani di 
animi in un cristallo di gralìte. Da un collimatore viene poi selezionato 
un fascio di neutroni che attraversa il campione e giunge a un rivelatore. 



va d'interferenza ha lente oscillazioni e 
apici e avvallamenti ampiamente spazia- 
ti; se sono più distanti, la curva d'inter- 
ferenza ha oscillazioni più rapide e la 
spaziatura tra le frange è più ristretta. 

Non è un procedimento semplice pre- 
parare piccole subunità ribosomali, in 
cui le due proteine prescelte contengo- 
no concentrazioni elevate di deuterio e 



non sarebbe affatto possibile se non fos- 
se per una straordinaria proprietà della 
stessa subunità. Nel 1968, Peter Traub e 
Masayasu Nomura dell'Università del 
Wisconsin hanno scoperto che, in certe 
condizioni ben specificate, la piccola su- 
bunità ribosomale si associa spontanea- 
mente a partire dalle parti che la com- 
pongono. Quindi, se potessimo prepara- 



re e isolare i componenti molecolari ne- 
cessari, vi sarebbe una buona probabilità 
di poter costruire, per le nostre finalità, 
la subunità completa. Proprio perché si 
conosceva un procedimento per il suo 
«montaggio», decidemmo di lavorare sul- 
la piccola subunità. 

I ribosomi da noi impiegati sonò quelli 
del batterio Escherichìa coli e il nostro 



CAMERA CON ELIO 3 




CELLA DI QUARZO 
CON IL CAMPIONE 




SUBUNITA 

RIBOSOMALE 

MARCATA 

CON DEUTERIO 



NEUTRONE 
NON DIFFUSO 



JT_ 



AMPLIFICA- 
ZIONE E 
CODIFICA- 
ZIONE 



IMMAGAZZI- 
NAMENTO DI 
DATI NEL 
CALCOLA- 
TORE 



Il rivelatore di neutroni registra l'intensità del flusso neutronico in 

ciascuna di più di Stimi posi/ioni alla sua superficie, e quindi misura la 
distribuzione angolare dei neutroni diffusi dalle subunilà ribosomali 
marcale con deuterio. Il rivelatore è una camera piatta, ripiena di elio 
3, un isotopo dell'elio che emette un protone quando viene colpito da 
un neutrone. La carica elettrica del protone che rimbalza induce una 



ionizzazione momentanea nelle sue immediate vicinanze, ionizzazione 
che viene registrata da un sistema di elettrodi distribuiti nel piano 
del rivelatore. I segnali identificali dagli elettrodi vengono amplificati, 
codificati per il e imi a re la posizione del neutrone incidente e rcgislrali 
su nastro per essere elaborati con l'aiuto di un calcolatore. Il fascio dei 
neutroni non deviati viene intercettalo da un dispositivo di arresto. 



86 



87 



COPPIA CH PROTEINE 



IMMAGINE DI INTERFERENZA 



CURVA DI INTERFERENZA 








ANGOLO DI SCATTERING 



o 
o 

Q 
- 



1 1 _3_ 
i 2/ I 2! 

y ^ ^ 







In 'immagine d 'interferenza viene prodotta dai neutroni diffusi du- 
rante il loro passaggio attraverso le subunilà ribosomali che contengo- 
no due proteine marcate con deuterio. La base degli studi sul riboso- 
ma mediante scattering neutronìco è l'analisi di immagini come questa 
per determinare la distanza centro a centro tra una coppia di proteine. 
L'immagine d'interferenza appare come una serie di anelli concentrici, 
in cui il flusso di neutroni è alternativamente più alto e più basso del 
livello di fondo; si può anche rappresentare con un grafico di flusso 
nu ii in mi fu in funzione dell'angolo di scattering del fascio. Nel caso 



ANGOLO DI SCATTERING 



più semplice, in cui te due proteine sono considerale sfere perfette, il 
grafico è una curva sinusoidale liscia. La distanza Ira i successivi 
anelli d'interferenza è inversamente correlata con la distanza Ira le 
proteine: se queste sono considerale come sfere a contatto, gli anelli 
risultano ampiamente spaziati (in alto); aumentando la distanza Ira le 
proteine, gli anelli d'interferenza si avvicinano Un basso). In pratica, la 
distanza si misura dal centro dell'immagine al margine del primo 
anello, dove la curva d'interferenza incontra per la prima volta lo zero. 
L'ondulazione nella curva d'interferenza ha una ampiezza limitala. 



:■.-.■ ■ 9 \: •-:♦•■ .'-■■.::■■*.•••■.■":•.* : ■.."...•.*.:..;;••.•.•:•.• ■..„•..*:.•,**.■ • 
■ '•'.■■■ . . . ■ . • .;•••. ■.•■-.-.,..■.■■.-••.'••'•..•-.•■•,•.■ ■ ■ , 
. .■• .• : - , .■ ; . ; . •..*•/. v. ■ :■ ■ ; -•;-.; *•:-.'• : . *. ' • ,* •", ; ■• *.• ■*•'.*■ 

*."• •".''. *." ■".".*•"*•*"**."•■* • '■ ; ". " •' ■ * ,' "■ '. * •*■*.'. .■■'■"."■,■.'■•:; ■."•!■",■ 
■■".-."-"•". :•-■■■ ■ * .*.*.•*,♦.*.*-■ ■ •.•*.•'.•■ • •".« ■« * *.*".*.• ■ ■ ■■' 

■:•;.•.:•: .•.■-.■::•■;::.•.-:•.•■.■-•.•. :■.;•;:■•. -: : ' -•■.■.■.■■'•■:•■':•■;■: ■'. 

.■■.•.•.•.-.•..::■•,••.••;■.■■:■.•..'.•■•',•.•■•,:■.■.•■:•.•••.'.•••.■ 
.:••'■:■• *.•■"•;■-■. : : ••■■•• :'•'••.•■ V% v ••' ■ ••"• • : .-- -.v •.-. : : ■ :-.*-.: • 

».f. ■ :--. • ■:. ■■ • : : : : ■ v.* . . ■ ■ -\ m - : ,v.\- ■.*.-: . ; .-.-•...::•.-,.:■ : 

■./: :'*'".■ •:■ ■'• • . " •* : : • ■- ■■■-•■•;•■.• -' ■"/•<■ ■"• ■: v. • •'•• : ■ • " "/■ ■ ■' ■ '• 

''■'•'.'■■" m > : .':'- : :■'".'• •■:'•' ■'■:'•.'• .'.■*.•: : ■ : : : -" •''-■■;■; ■'■'-.*•: :■'■'-.■ •:•'.'' ; 

■.• •: •-.-.•,;•. *•:■." •'•;-'; ■.*.•.• .*.".-:;.*•••.* :•. ■;.. •;•■. • . 
.............. •,•,-.■.■■.-..■• .-■.-■-..■.•••■■■•••.■■. 

■•:-.**■•■. *,••■. ' . • ■ • • .•••..--..■..••■.• . ■ . 

•':•. •' .* • • ■ : ■' *. ■;•'•*•*■?.':•*.'.■ * '•'■.• ; .* : : : ■." ■ •' - : •" •*:"; : :"-*.*•*■ '• v • 

-:V#--v. :'!• :£$-:•, : : : v-'. : -\ : :'-*m:.\\ :: '-\:\'':\-\\\ ■'■': ': V : >>: : ->::é';V.V;y 

',"*,'*"**,'." •*••*****'* •***»"** t **V • " * * * '■ "*V ,*'/'.' ,* ***-*•*""**•*•»*%****-■_***/ 

■ " * 9- ,' ■ : * **•••** .""■'•'.*■"."*• '9 " • - "•".'"."*•"■"."■■•'■ ^ *""'■•'**.'.■".'," •'"■'•••:'.' \' 

***** z** ,**»'>'**'""."" r '"",*•*""',****".*-■"-* r "■ * * • « ■ ".' ■ ■ '. . *[ 



La tecnica di livellamento dei contrasti viene impiegata per rinforzare 
il segnale d'interferenza nelle misure di scattering neutronìco. L'in- 
terferenza risulta dall'effettivo contrasto (per ì neutroni termici) Ira le 
proteine marcale con deuterio (cerchietti neri) e le proteine normali 
(puntini) in ogni subunìtà ribosomale. Però, se le subunità sono 
sospese in acqua pura, il fascio neutronìco rivela anche un contrasto 
tra le subunità nel loro complesso e il mezzo e si introduce cosi un fattore 



spurio nel segnale d'interferenza. Questa fonte di rumore può essere 
eliminata regolando le proprietà di scattering neutronìco del mezzo, in 
modo che esse vengano a essere simili a quelle delle subunilà. Così, a 
sinistra, gli oggetti più vistosi sono gli aggregati di punti, che rappre- 
sentano ciascuno una subunità ribosomale, mentre, a destra, le coppie 
di cerchielli neri, ciascuna delle quali rappresenta una coppia di 
proteine marcale con deuterio, sono gli oggetti più appariscenti. 



primo compito è stato quello di coltivare 
grandi quantità (dell'ordine di chilo- 
grammi) di colture batteriche, conlenenti 
elevate concentrazioni di deuterio. Ab- 
biamo trovato che un buon metodo era 
quello di coltivare i batteri in ossido di 
deuterio o acqua pesante, ma di nutrirli 
con zuccheri normali, non contenenti 
deuterio, e con sali minerali. Le proteine 
che costituivano questi batteri contene- 
vano il deuterio in più del 95 per cento 
delle sedi generalmente occupale dall'i- 
drogeno. Il fatto che i batteri crescessero 
bene in acqua pesante ha suggerito che la 
sostituzione dell'idrogeno con il deute- 
rio non provocava altro che una lieve 
perturbazione nel funzionamento della 
cellula e quindi ci ha rassicurato che la 
sostituzione non avrebbe alterato la strut- 
tura dei ribosomi. E difatti, quando ab- 
biamo confrontalo le capacità dei ribo- 
somi normali e di quelli marcati con 
deuterio di mediare la sintesi proteica in 
un sistema privo di cellule, abbiamo tro- 
vato che esse erano indistinguibili. 

Ottenute sufficienti quantità di cellule 
normali e marcate con deuterio, abbia- 
mo estratto da esse i ribosomi e isolato 
le piccole subunità. Queste ultime sono 
state poi «smontate» chimicamente e 
l'RNA costituente è stato isolato e puri- 
ficato per suo conto. Le 21 proteine 
sono state separate l'una dall'altra me- 
diante cromatografia a scambio ionico. 
Con questo procedimento, esse vengono 
adsorbite su un substrato di cellulosa 
modificata e si distinguono per le diverse 
velocità con cui vengono eluite dal sub- 
strato a opera dì una soluzione salina. In 
con dizioni .opportune, tutte possono es- 
sere isolate. Le proteine normali e quelle 
marcate con deuterio si separano esatta- 
mente nello stesso modo, suggerendo di 
nuovo che qualsiasi alterazione provoca- 
ta dalla sostituzione con deuterio non 
deve essere stata profonda. 

Le proteine cosi purificate vengono 
designate con le sigle da S I a S 21 (S sta 
per piccola subunità, smali in inglese; le 
proteine della subunità grande, in inglese 
large, sono designale con le sigle da L 1 
ai 34). Ciascuna può essere identificata 
dalla sua velocità relativa di migrazione 
attraverso ia colonna a scambio ionico, 
come pure da altre caratteristiche. Per 
ogni esperimento si selezionano due pro- 
teine: per esempio, in uno dei nostri 
esperimenti, abbiamo misurato la sepa- 
razione tra la proteina S 5 e la proteina S 
8. Queste due frazioni erano state prele- 
vate dalla serie delle 21 proteine normali, 
idrogenate; le restanti 19 proteine nor- 
mali sono state mescolate in una soluzio- 
ne, alla quale sono poi state aggiunte le 
frazioni S 5 e S 8 della serie marcata con 
deuterio, oltre all'RNA purificato estrat- 
to dalle piccole subunità normali. I sol- 
venti impieGati nella separazione e puri- 
ficazione sono stati quindi sostituiti da 
un'altra soluzione tampone e il miscuglio 
è stato rimescolato per un paio d'ore a 
debole calore. In queste condizioni, le 22 
molecole componenti si sono ripiegate e 
riunite nelle subunità ribosomali ricosti- 
tuite. Il processo è particolarmente in- 



teressante e, anche se lo abbiamo visto 
molte volte, non ha mai cessato di mera- 
vigliarci. L'unica informazione espressa 
esplicitamente nel codice genetico è quel- 
la che specifica la sequenza lineare degli 
amminoacidi in una proteina. Si accetta 
generalmente che questa sequenza con- 
trolli anche il ripiegamento della catena 
degli amminoacidi in una conformazione 
tridimensionale opportuna. La ricostitu- 
zione spontanea delle subunità ribosoma- 
li implica che il codice genetico contenga 
anche l'informazione necessaria per riu- 
nire un grosso complesso di molecole 
proteiche e di RNA. Le subunità riunite 
comprendono le due proteine marcate con 
deuterio, di cui è nota l'identità chimica e 
di cui si devono, invece, determinare le 
posizioni. La parte restante della struttura 
contiene solo idrogeno. Prove effettuate 
sulle subunità ricostituite hanno dimostra- 
to che esse sono attive nella sintesi protei- 
ca, che sono simili a ribosomi normali co- 
me dimensioni e come forma e che incor- 
porano realmente nella loro struttura le 
proteine marcate con deuterio. 

P rima di misurare la curva di scattering 
* neutronìco, è necessario operare un 
aggiustamento di più cruciale importan- 
za sul campione. Se le subunità marcate 
con deuterio fossero sospese in acqua 
pura, il fascio di neutroni individuerebbe 
il contrasto tra le proteine contenenti il 
deuterio e quelle contenenti l'idrogeno, 
ma individuerebbe anche un sostanziale 
contrasto tra le subunità intese comples- 
sivamente e il solvente net quale sono 
sospese. Il segnale d'interferenza ha una 
piccola ampiezza e, nelle migliori condi- 
zioni, è difficile da estrarre; esso sarebbe 
completamente oscurato se non venisse 
eliminato lo scattering determinato dalle 
subunità nel loro complesso. Questo pro- 
blema viene risolto con una tecnica nota 
come «livellamento dei contrasti» (cwt- 
Irast-maiching). Aggiungendo dell'acqua 
pesante al solvente, si possono aggiusta- 
re le caratteristiche di scattering di que- 
st'ultimo in modo che, in media, il nu- 
mero di neutroni diffusi per unità di vo- 
lume sia lo stesso per i ribosomi e per la 
soluzione tampone circostante. In questo 
modo, il contrasto tra la soluzione e 
il ribosoma nel suo complesso sì riduce 
virtualmente a zero e, se it ribosoma 
fosse un oggetto completamente unifor- 
me, scomparirebbe, cioè il fascio dì neu- 
troni non individuerebbe più la sua pre- 
senza. In effetti, però, il ribosoma non è 
più uniforme: contiene due proteine mas- 
sicciamente marcate con deuterio, le qua- 
li diventano così gli oggetti più cospicui 
della soluzione. 

Le nostre misure dello scattering neu- 
tronìco sono state effettuate con lo High 
Flux Beam Reactor del Brookhaven Na- 
tional Laboratory. 1 neutroni emessi dal- 
la fissione dei nuclei di uranio nel noc- 
ciolo di questo reattore sono rallentati 
dalle molteplici collisioni con i nuclei di 
deuterio nel refrigerante di acqua pesan- 
te che circonda il nocciolo. Per i nostri 
esperimenti i neutroni vengono rallentati 
fino alle velocità termiche, cioè sono ral- 



lentati fino a quando la distribuzione 
deìle energie tra i neutroni è pari a quella 
delle particelle in un gas in equilibrio 
termico. I neutroni con queste, energie 
relativamente basse sono utili in una va- 
rietà di studi a risoluzione atomica, tra 
cui quelli su materiali biologici. 

I neutroni termici escono dal reattore 
attraverso un'apertura nel contenitore e 
sono indirizzati all'area sperimentale at- 
traverso un lungo tubo situato nella 
schermatura. Nel momento in cui essi 
lasciano il reattore hanno un'ampia va- 
rietà di energìe e lunghezze d'onda, ma 
le nostre misure necessitano di un fascio 
di neutroni che abbiano tutti la stessa 
lunghezza d'onda. Un simile fascio viene 
selezionato mediante l'effetto noto come 
riflessione di Bragg dal nome di Sir Wil- 
liam Bragg, il quale ha elaborato molte 
tecniche oggi impiegate negli studi di dif- 
frazione dei raggi X e dei neutroni, 1 
neutroni vengono diretti in un cristallo 
di grafite, dove sono riflessi dai numero- 
si piani interni di atomi; l'angolo di ri- 
flessione dipende dalla lunghezza d'onda 
dei neutroni; pertanto il fascio di neutro- 
ni viene risolto in uno spettro, da cui è 
selezionato un fascio monocromatico, co- 
stituito da neutroni con una particolare 
lunghezza d'onda. Lo spettro neutronìco 
è analogo allo spettro ottico e i piani di 
atomi responsabili della riflessione dì 
Bragg sono analoghi alle linee su un reti- 
colo di diffrazione ottico. 

Per i nostri esperimenti, si aggiusta 
l'orientazione del cristallo di grafite in 
modo che selezioni neutroni con una lun- 
ghezza d'onda di 0,237 nanometri. Il 
fascio selezionato viene diretto in un tu- 
bo lungo circa 2 m, che presenta lungo il 
percorso parecchie strette aperture, viene 
quindi collimato e fatto giungere in una 
cella di quarzo che contiene il campione 
di subunilà ribosomali. 

Senza il sostegno esperto ed entusiasta 
del gruppo di lavoro di Brookhaven, non 
sarebbe stato possibile raggiungere alcun 
successo in questi esperimenti. In parti- 
colare, Benno P. Schoenborn, che è sta- 
to il primo ricercatore a usare la diffra- 
zione dei neutroni per l'indagine appro- 
fondita delle strutture biologiche, ha con- 
tribuito parecchio allo sviluppo delle tec- 
niche necessarie. Uno dei suoi contributi 
essenziali è stato lo sviluppo di un rivela- 
tore per neutroni, capace di misurare si- 
multaneamente il flusso dei neutroni in 
molti punti di un piano: un rivelatore, 
quindi, capace di riconoscere le posizioni 
con una buona risoluzione spaziale. 

Dato che i neutroni non interagiscono 
con gli elettroni, essi non si possono 
rivelare con gli stessi metodi deìle radia- 
zioni elettromagnetiche o dì un fascio di 
elettroni. Per esempio, una pellicola fo- 
tografica non viene esposta in maniera 
efficace dai neutroni. II rivelatore che 
abbiamo usato a Brookhaven deve la sua 
sensibilità alle speciali proprietà de! gas 
elio 3, l'isotopo dell'elio con due protoni 
e un neutrone. Quando un nucleo di elio 
3 viene urtato da un neutrone, i prodotti 
della collisione sono un nucleo di trizio 
(l'isotopo dell'idrogeno con un protone e 



89 



Ili 

5 




ss 



S8 




2 (3.5 NANOMETRI) 




ANGOLO 01 SCATTERING 



La misura/ioni- della disianza tra due componenti della piccola sub- 
unità, le proteine designale con S 5 e con 5 8, dà una separazione da 
centro a centro di 3,5 nanometri. La cuna d'interferenza misurala è 
daia dai punii neri e dalle .sbarrette verticali, che rappresentano il 
possibile errore sperimentale, la cuna :i irallo mulinilo { unti COTI 



teorica, calcolala ammettendo che le due proteine siano sferiche, che 
abbiano un diametro di 3,5 nanometri e che si tocchino Cuna con 
l'altra. [)au> che questa curva [corica •< adegaa bCIM ti taf! manritti. 
queste ipotesi sembrerebbero giuslifiiale. La misura della distanza viene 
derivala dal punto in cui la cuna incontra per la prima volta lo zero. 



e 
E 

5 







ANGOLO DI SCATTERING 



Le proteine S 4 e ,S" 8 sono state appaiate per una seconda misurazione 
della disianza. Di nuovo i punti e le sbarrette corrispondono ai dati 
misurati e la curva a trailo continuo si basa su un calcolo teorico. In 
questo caso, tuttavia, essa non è in buon accordo con i dati; in 
particolare la cuna misurata sembra essere molto più pialla di quella 
calcolala. La discrepanza indica prohabilmenie che una delle proteine 



non viene perfctlamcnle descritla da una sfera e. poiché si è visto che 
la 5 8 è compatta nella misurazione di 5 5 e S 8, sembra probabile che 
sia S 4 ad avere una forma allungata. La deviazione attribuita alla 
forma di S 4 non altera sostanzialmente il primo punto in cui Ea curva 
interseca lo zero, per cui può essere misurata la distanza da centro 
a centro tra le due proteine; questa distanza è di ti.} nanometri. 



90 



due neutroni) e un protone; di fatto, il 
nucleo di elio 3 assorbe un neutrone ed 
emette un protone. Il protone, natural- 
mente, porta una carica elettrica e ioniz- 
za momentaneamente una parte degli a- 
tomi di elio vicini. Questa ionizzazione è 
evidenziata con mezzi convenzionali. 

Il rivelatore è una camera grande e 
piatta, riempita di elio 3. Gli elettrodi 
sono disposti in esso in modo che la 
ionizzazione di una qualsiasi piccola re- 
gione del gas viene rivelata come un 
impulso di corrente elettrica. Dalla natu- 
ra del segnale prodotto si può determi- 
nare la posizione dell'evento di ionizza- 
zione. Gli impulsi sono conteggiati, co- 
dificati per indicare la posizione del neu- 
trone incidente e registrati su nastro. 

L'ampiezza del segnale di interferenza 
generato dalle proteine marcate con 
deuterio rappresenta solo una piccola 
percentuale rispetto a! flusso totale di 
neutroni, incidente sul rivelatore. Di con- 
seguenza, la stabilità e l'attendibilità del- 
l'apparato sperimentale sono critiche. 
Con i più grossi campioni di ribosomi 
che possiamo facilmente produrre, la rac- 
colta di un numero sufficiente di dati per 
definire una curva d'interferenza richie- 
de circa ire giorni di continue misure. 

Una volta raccolti, i dati sono elabo- 
rati con l'aiuto di un calcolatore. Per 
prima cosa, le misure in tutti i punti del 
rivelatore sono disposte in modo da for- 
mare anelli che hanno come centro la 
posizione del fascio non deviato. Ogni 
anello rappresenta, dunque, una misura 
del flusso di neutroni con un particolare 
angolo di scattering. La serie di anelli 
dà un grafico del flusso neutronico in 
funzione dell'angolo di scattering. 

L'oggetto della misurazione, natural- 
mente, non è ii flusso neutronico totale, 
ma la curva ondulata d'interferenza. Que- 
sta curva può essere isolata sottraendo 
dal flusso totale misurato tutti i compo- 
nenti che non hanno origine dallo scat- 
tering a opera delle proteine appaiate. 
Vengono effettuate le misurazioni su due 
soluzioni. In una, metà dei ribosomi 
contengono la coppia selezionata di pro- 
teine marcate con deuterio (per esempio 
S5 e SS); il resto dei ribosomi contiene, 
invece, solo proteine idrogenate. Nella se- 
conda, una metà dei ribosomi ha un 
membro della coppia di proteìne marcale 
con deuterio (per esempio S 5), mentre 
l' alt ra metà ha come proteina marcata S 8 . 
Se la concentrazione delle due soluzioni 
è uguale, allora ambedue contengono gli 
stessi componenti: lo stesso numero di 
ribosomi e lo stesso numero di proteine 
marcate con deuterio di ciascun tipo. 
Invece differiscono nella disposizione di 
questi componenti. Se la curva d'intensi- 
tà dello scattering per una soluzione vie- 
ne sottratta dalla curva per l'altra, la 
differenza corrisponde al contributo da- 
to dalla disposizione geometrica delle 
proteine nei ribosomi contenenti due pro- 
teine marcate con deuterio. È questa la 
curva d'interferenza, equivalente alle 
frange osservate nell'esperimento ottico 
con la doppia fessura. 



Nel 1974, quando abbiamo ottenuto le 
nostre prime misure della distanza che 
separa una coppia di proteine, siamo 
rimasti sconcertati nello scoprire che la 
curva ondulata d'interferenza che ci aspet- 
tavamo di trovare aveva in realtà una sin- 
gola fluttuazione; in altre parole, l'intensi- 
tà di flusso dei neutroni andava da un 
valore positivo alto a un valore negativo 
e quindi ritornava allo zero senza ulte- 
riori oscillazioni. Ritornando al nostro 
modello teorico della curva, siamo stati 
un poco rassicurati: il modello più sem- 
plice ammetteva che le proteine fossero 
sferiche o perlomeno compatte, mentre 
non è detto che lo siano. Se le proteine a- 
vessero una forma più estesa, ne potrebbe 
risultare una forte attenuazione degli ul- 
timi apici della curva. La distanza dal- 
l'origine al punto in cui la curva incontra 
per la prima volta lo zero è però poco 
influenzata dalla forma della proteina, 
per cui la distanza tra le molecole po- 
trebbe ancora essere misurata. Per essere 
sicuri che il segnale che avevamo identi- 
ficato fosse reale, abbiamo ripetuto l'e- 
sperimento, seguendo tutte le tappe del 
procedimento, ma impiegando soltanto 
proteine contenenti idrogeno; non è sta- 
to rivelato alcun segnale d'interferenza. 
Altri procedimenti hanno confermato che 
il segnale che avevamo osservato viene 
generato dalle proteine marcate con deu- 
terio e che le subunità ribosomali so- 
pravvivono in condizioni sperimentali. 
Inoltre, siamo stati in grado di ripetere 
una misura con coerenza di risultati. 

In prima approssimazione si può otte- 
nere la distanza tra le proteine con un 
procedimento semplice. Abbiamo visto 
che la spaziatura tra le frange d'interfe- 
renza è inversamente correlata con la 
spaziatura tra le proteine, e questo rap- 
porto viene facilmente reso quantitativo. 
Innanzitutto si misura l'angolo tra il fa- 
scio non deviato e il margine della fran- 
gia d'interferenza più interna (dove la 
curva d'interferenza incrocia per la pri- 
ma volta lo zero). La distanza tra le 
proteine è allora uguale alla lunghezza 
d'onda dei neutroni divisa per due volle 
il seno di quell'angolo. 

L'applicazione di questa tecnica alla 
curva d'interferenza per le proteine S 5 e 
S 8 dà una distanza da centro a centro di 
circa 3,5 nanometri. Per questa coppia 
di proteine, è affatto adeguato un mo- 
dello semplicissimo per la forma delle 
proteine. Ammettendo che ambedue i 
membri della coppia siano sfere con vo- 
lumi appropriati al loro peso molecolare 
e ammettendo che le due sfere siano in 
contatto, si può calcolare una curva d'in- 
terferenza che si adatti bene ai dati. Pos- 
siamo dunque concludere con le proteine 
S 5 e S 8 sono compatte quando sono 
viste lungo la linea che collega i loro cen- 
tri di massa i quali distano circa 3,5 
nanometri. 

Un'altra coppia di proteine che abbia- 
mo misurato è costituita da S 4 e da S 8. 
Qui la posizione della prima interse- 
zione con lo zero dà una distanza inter- 
proteica di 6,3 nanometri, ma una curva 
calcolata per due proteine sferiche di 



dimensione appropriata non si adegua 
bene a questi dati. Sembra dunque che 
gli effetti conseguenti alla forma delle 
proteine abbiano alterato la forma della 
curva. Il modello matematico suggerisce 
che verrebbe generata una curva d'inter- 
ferenza del tipo giusto se una proteina 
fosse compatta e l'altra allungata. Poi- 
ché la S 8 è già risultata compatta nella 
misurazione della coppia S 5 - S 8, è 
probabile che la S 4 sia allungata. 

Date alcune misure di distanze tra cop- 
pie di proteine, è possibile cominciare a 
costruire una mappa della piccola subu- 
niià del ribosoma. Questa mappa comin- 
cia con tre misure da centro a centro, 
che si riferiscono a tre molecole protei- 
che; queste, necessariamente, definisco- 
no nella subunità un triangolo e un pia- 
no. Una quarta proteina può essere loca- 
lizzata misurando la distanza tra di essa 
e le tre proteine originali; a meno che 
non giaccia sullo stesso piano, essa defi- 
nisce il vertice di un tetraedro. 

Il collocare la quarta proteina nella 
mappa comporta una certa irriducibile 
ambiguità. Le misure della distanza dalle 
prime tre proteine definiscono in realtà 
due possibili posizioni per la quarta pro- 
teina, una da ogni parte del piano e i 
dati di scattering neutronico non conten- 
gono alcuna informazione su quale delle 
due posizioni sia quella corretta. Se si 
opera arbitrariamente una scelta, allora 
tutte le proteine aggiunte successivamen- 
te alla mappa possono essere collocate 
senza ambiguità, ma rimane il fatto che 
la mappa potrebbe rappresentare o la 
struttura reale o la sua immagine specu- 
lare. Questa ambiguità concernente la 
configurazione della struttura non si può 
risolvere con alcun sistema di misure tra 
coppie di proteine e così permarrà anche 
quando la mappa sarà completa. Tutta- 
via, se dovessimo raggiungere il punto in 
cui l'unica incertezza circa la struttura 
rimane quella della configurazione, allora 
avremmo fallo davvero un buon lavoro. 

Una volta stabilite le posizioni delle 
quattro proteine che definiscono un te- 
traedro, si possono aggiungere alla map- 
pa delle altre proteine, compiendo una 
serie di quattro misure ai vertici di que- 
sto tetraedro o in altre quattro molecole 
qualsiasi, le cui posizioni siano comple- 
tamente definite. Non è necessario misu- 
rare tutte le distanze tra le proteine per 
costruire la mappa completa della strut- 
tura: per le 21 proteine della piccola 
subunità vi sono 210 coppie proteiche, 
ma bastano - per definire la struttura - 
74 misurazioni. 

La massima parte delle misure che ab- 
biamo ottenuto finora le abbiamo ricava- 
te in collaborazione con J. Langer, un 
ricercatore presso la Yale University. La 
mappa della piccola subunità che abbia- 
mo messo insieme include 5 proteine: la 
S 3, la S 4, la S 5, la S 7 e la S 8. Tra di 
esse, con otto misurazioni, sono stati 
definiti quattro triangoli, ma i rapporti 
spaziali di questi ultimi non sono ancora 
noti in maniera definitiva. Una misura in 
più, ma ipotetica, fa pensare che essi 
formino un aggregato ripiegato e relativa- 



91 






La slrutlura tridimensionale della piccola subunità si ottiene per triangola/ione da misure delle 
disianze tra coppie di proteine. Le prime tre misure definiscono un triangolo e. necessariamente, 
un piano attraverso le subunità (a). Tre olire misure (fr) danno la posizione di una ubarla 
proteina e definiscono un tetraedro. Nel sistemare questa quarta proteina, però, insorse 
un'ambiguità che non può essere risolta da alcun sistema di misurazioni a coppie: la proteina 
potrebbe occupare una posizione da una parte o dall'altra del piano definito dal triangolo 
originale. Se si fa una scelta arbitraria, si possono aggiungere alla struttura altre proteine, 
effettuando misurazioni nei riguardi di una qualsiasi delle quattro proteine le cui posizioni sono 
già stale definite (ci. Cionondimeno la configurazione spaziale della struttura rimane indetermi- 
nata, cioè la mappa potrebbe rappresentare sia la struttura reale, sia la sua immagine speculare. 




Mappa ipotetica di una por/ione della piccola subunità ribosomale, che include cinque proteine, 
correlale da otto misure di distanze. In essa non è incluso un tetraedro completo e, come 
risultato, la slrutlura illustrata non è rigida; piuttosto, essa può flettersi lungo parecchi assi, 
modificando l' orientazione delle proleine senza modificare le distanze misurate ira di esse. 
Inoltre, la misurazione tra 5 5 e S 7 è solo ipotetica. Le proleine appaiono come sfere, in modo 
da poterne indicarci volumi approssimativi, anche se in realtà alcune non sono affatto delle sfere. 



mente compatto, ma anche se essa dimo- 
stra di essere accurata, non può determi- 
nare rìgidamente i rapporti spaziali delle 
cinque proteine, È quindi necessaria al- 
meno una misura in più. 

È chiaro che, con solo otto distanze 
interproteiche stabilite e un minimo di 74 
necessarie, l'analisi strutturale della pic- 
cola subunità ribosomale è appena ini- 
ziata. È stato necessario un anno per 
acquisire le informazioni di cui oggi di- 
sponiamo e saranno necessari ancora al- 
cuni anni per completare la mappa. Il 
nostro progredire può apparire lento, ma 
è simile a quello che si incontra in molti 
altri tipi di lavori scientifici; inoltre, data 
l'importanza del ribosoma nel metaboli- 
smo della cellula, ogni ulteriore cono* 
scenza acquisita è preziosa. 

T Tna mappa che mostri le posizioni rela- 
^ live di 21 proteine non è il solo risul- 
tato da attendersi dallo studio delle curve 
di interferenza neutronica. Come abbia- 
mo proposto, la forma di questa curva 
può fornire ulteriori informazioni sulla 
forma generale e l'orientazione di ogni 
proteina. Di regola, anche l'RNA ribo- 
somale potrebbe essere incluso nella map- 
pa di diffrazione dei neutroni. L'appli- 
cazione della tecnica all'RNA richiede- 
rebbe però un sistema per tagliare questa 
molecola in punti noti della sua lunghez- 
za, sostituendo poi - nella molecola rico- 
stituita - segmenti marcati con deuterio. 

Parecchie proteine e altre molecole, 
tra cui l'RNA messaggero e l'RNA di 
trasporto, interagiscono con il ribosoma 
durante la sintesi proteica. Se alcune di 
queste interazioni sono stabili, o se pos- 
sono essere bloccate in qualche forma 
stabile intermedia, il punto d'interazione 
potrebbe essere determinato mettendo in 
relazione le molecole alle proteine nella 
mappa. Potrebbe anche essere possibile 
misurare le distanze ira le proteine all'in- 
terno del ribosoma durante i vari stadi 
della sintesi proteica, ammettendo di nuo- 
vo che si formino degli stati stabili inter- 
medi. La conformazione del ribosoma 
può modificarsi durante la sintesi protei- 
ca e !a natura di tali cambiamenti verreb- 
be rivelata dalle misure dì diffrazione dei 
neutroni. Le informazioni ricavate da 
studi di questo genere dovrebbero con- 
durci molto più vicino a una compren- 
sione di uno dei processi centrali della 
vita: la traduzione del codice genetico in 
un prodotto genico. 

Infine, il ribosoma non è la sola strut- 
tura biologica che può essere esplorata 
con profitto dallo scattering neutronico. 
Un'associazione di molecole particolar- 
mente interessante, che si prevede potrà 
essere studiata presto, è l'RNA polimera- 
si DNA dipendente, che media il proces- 
so di trascrizione del codice del DNA in 
RNA messaggero. Altri candidati allo 
studio con gli stessi metodi sono la cro- 
matina, il complesso di molecole, che 
costituisce il materiale genetico degù or- 
ganismi eucarioti, e varie membrane bio- 
logiche. Abbiamo così dinnanzi a noi la 
prospettiva di riuscire a comprendere tut- 
te queste strutture a livello molecolare. 



92 



Lo stampaggio delle lamiere 



Notevole importanza riveste il comportamento di un metallo durante lo 
stampaggio: le moderne conoscenze sulla struttura atomica dei metalli 
hanno posto tate tecnologia su basi più scientifiche e meno empiriche 



di s.s. Hecker e A.k. Ghosh 



Chi visitasse una fabbrica dove vengo- 
no realizzati, con presse rapide di 
stampaggio, pezzi identici da lamie- 
re metalliche grezze potrebbe pensare di 
assistere a una tecnologia avanzata in 
azione. In effetti lo stampaggio delie la- 
miere è più che un'arte avanzata: per 
questo processo l'industria fa un grande 
assegnamento sul giudizio e sull'esperien- 
za di mastri specializzati . Solo dì recente 
i progressi nell'analisi e nella conoscenza 
della struttura atomica dei metalli hanno 
incominciato a integrare l'arte con la 
scienza, ponendo la tecnologia su una 
base più solida e indicando la via per 
ottenere, a costi inferiori, una migliore 
esecuzione delle migliaia di parti metalli- 
che fabbricate quotidianamente per la 
produzione di grande serie. 

Quantunque le lamiere metalliche si 
siano lavorate da migliaia di anni per la 
produzione di monete, utensili e oggetti 
d'arte, è solo da un secolo che il proces- 
so è stato meccanizzato e che ha inco- 
minciato ad avvicinarsi alle linee di stam- 
paggio odierne. La meccanizzazione del- 
lo stampaggio di lamiere è stata a sua 
volta un passo di enorme importanza 
verso la produzione dì serie. Oggi la 
lavorazione delle lamiere metalliche ri- 
guarda la vita di ciascuno di noi poiché 
le macchine di stampaggio producono 
una grande varietà di pezzi che vanno 
dagli occhielli per scarpe ai paraurti per 
automobili. Tale industria è una delle 
componenti più importanti nell'economia 
di tutte le moderne nazioni industrializ- 
zate. 

All'inizio del XVI secolo un inventore 
francese, che negli annali della metallur- 
gia viene menzionato solo come Bruiler, 
sviluppò una tecnica per ottenere lami- 
nati di spessore uniforme. Questa inven- 
zione rese possibile la costruzione di par- 
ti mediante lo stampaggio di pezzi lisci di 
metallo fra uno stampo e una matrice. 
Ciononostante il ferro e l'acciaio conti- 
nuarono per 300 anni a essere prevalen- 
temente modellati mediante laminatura, 



fucinatura, fusione e imbutitura perchè 
le presse impiegate per stampare le parti 
venivano azionate a mano fino a quan- 
do, intorno al 1800, gli ingegneri tede- 
schi Ludwig Keserstein e Johann Luber 
svilupparono la prima pressa idraulica. 
Quando nel 1850 l'inventore americano 
Elisha Root presentò la prima pressa a 
caduta azionata mediante un cinemati- 
smo, si apri la strada a una rivoluzione 
delle tecniche manifatturiere. 

L'estendersi della produzione dì serie, 
nella seconda metà del XIX secolo, fu 
uno stimolo importante per lo sviluppo 
della lavorazione di lamiere che, a sua 
volta, rese possibile la produzione di se- 
rie. I pezzi realizzati in lamiera offrivano 
numerosi vantaggi rispetto a quelli fuci- 
nati o di fusione, fra i quali minor peso, 
maggiore intercambiabilità e minor co- 
sto. Intorno ai 1850 lo stampaggio di 
lamiere di ferro o di acciaio zincato, con 
cui produrre recipienti per generi alimen- 
tari, dette luogo alla creazione dell'indu- 
stria di lavorazione delle lamiere metalli- 
che come è conosciuta oggigiorno. 

Sebbene net 1900 lo stampaggio del 
metallo fosse già largamente diffuso, lo 
sviluppo principale si verificò quando 
l'industria automobilistica assunse la ca- 
ratteristica della produzione di serie. Un 
altro impulso fu dato dalla rapida espan- 
sione, dopo la prima guerra mondiale, 
dagli elettrodomestici, per esempio aspi- 
rapolvere, lavatrici, frigoriferi e tostapa- 
ne. Tutti questi sviluppi provocarono una 
grande richiesta di lamiere metalliche. Il 
fabbisogno veniva soddisfatto con l'ac- 
ciaio a basso tenore di carbonio che of- 
friva i vantaggi di uno spessore uniforme 
e dì una buona finitura superficiale, oltre 
al basso costo. Quest'acciaio divenne ben 
presto la lamiera dì uso universale, ruolo 
che mantiene tuttora. 

T o stampaggio non è affatto il solo 
*-* metodo per realizzare pezzi da una 
lamiera, ma è quello economicamente 
più importante e quindi quest'articolo 



sarà incentralo su di esso. Nel sistema 
più usuale di stampaggio un pezzo di 
metallo grezzo precedentemente tagliato 
assume la forma voluta in una pressa 
meccanica fra una serie di stampi e di 
matrici che sono stati modellati con cura 
per produrre il pezzo desiderato. Il pro- 
cesso comincia con un'operazione di tran- 
ciatura con la quale la lamiera avvolta in 
bobine (che possono raggiungere il peso 
di 30 tonnellate) viene automaticamente 
svolta e tagliata nella dimensione adatta 
mediante matrici tranciami. Di solito la 
dimensione appropriata è leggermente 
superiore a quella del pezzo finito per 
poter disporre di bordi da tenere salda- 
mente durante lo stampaggio della la- 
miera grezza e che vengono poi asporta- 
ti. Nei caso di stampaggio di pezzi di 
grandi dimensioni la perdita di lamiera 
per la presenza dei bordi può raggiun- 
gere il 30 per cento e il metallo asportato 
può essere venduto solo come rottame 
per una frazione del suo costo. 

La fase successiva è abitualmente la 
bordatura o frangiatura che consìste es- 
senzialmente in un'operazione di piega- 
tura. Di solito è necessaria una flangia se 
il pezzo è progettato per essere unito a 
un altro, come nel caso del paraurti che 
viene fissato alla carrozzeria dell'auto- 
mobile. Dopo la bordatura il pezzo può 
essere stampato una seconda volta in 
una serie di matrici differenti: questa 
fase si rende talvolta necessaria per ren- 
dere netti i bordi e gli angoli che nella 
fase precedente non hanno raggiunto le 
dimensioni specificate. 

Un tipico impianto di stampaggio im- 
piega molteplici presse e matrici. La for- 
za può essere applicata alla pressa con 
un sistema idraulico o meccanico: questo 
secondo è generalmente preferito perché 
più rapido. Le presse a doppio effetto 
sono le più comuni: esse comprendono il 
moto di due slitte, una per il premilamie- 
ra e una per lo stampo principale. La 
moderna linea di stampaggio è molto o 
del tutto automatizzata, con cinematismi 



94 




Deposito di bobine di lamiera metallica da stampaggio per parti di 
automobili in uno stabilimento della General Motors Corporation. 

Il metallo è acciaio a basso tenore di carbonio. Le bobine vengono 



trasportale nella sala di stampaggio adiacente {fotografia in basso), 
dove sono svolle e tagliate in elementi di dimensioni appropriate, 
che alimenlano grosse presse per lo stampaggio dei uri pezzi. 




Qucsla pressa di stampaggio forma il pannello di una portiera nella 
fabbrica della General Motors. Il metallo viene spostato automalica- 



mente dopo che l'operatore ha posto II ferro sui rulli che lo trasporta- 
no sono la pressa. Le macchine a destra stampano altre parti. 



95 



per l'alimentazione e il trasferimento dei 
pezzi, distributori del lubrificante sincro- 
nizzati con il moto della pressa, sistemi 
dì trasportatori basati su dispositivi ma- 
gnetici o a depressione, fotocellule che 
avviano il sistema di comando e un siste- 
ma di controllo che funziona senza arre- 
stare la linea di produzione per la rimo- 
zione di un pezzo. Come risultato pos- 
sono essere raggiunti ritmi di produzione 
estremamente elevati (per esempio 100 000 
scatole per filtri dell'olio ai giorno da un 
solo impianto). 

Le linee automatiche di stampaggio 
erano in esercizio molto prima che venis- 
se compreso quale tipo di deformazione 
si verifica in un pezzo di metallo durante 
l'operazione. La conoscenza di questo 
fenomeno è recentissima. I processi im- 
plicati sono l'imbutitura e (di solito) lo 
stiramento e si possono seguire immagi- 
nando una pressa che sta per stampare 
una lamiera grezza. Sopra il semilavora- 
to si trovano la slitta principale che por- 
ta lo stampo e il premilamìera che pressa 
verso il basso i bordi dell'elemento grez- 
zo, sotto il quale è posta la matrice 
principale. 

La prima azione delta pressa è di spin- 
gere in basso il premilamìera che in tal 
modo tiene fermo il materiale grezzo ai 



bordi. Con la seconda azione viene spin- 
ta in basso la slitta principale con lo 
stampo. Il metallo aderisce allo stampo 
mentre questo entra nella cavità della 
matrice. In sostanza il metallo viene sti- 
rato o tirato all'interno della cavità. 

II semilavorato, poiché è forzato a 
contrarsi secondo la circonferenza men- 
tre viene stirato radialmente verso l'in- 
terno, tende a deformarsi o a corrugarsi. 
Una deformazione appropriata nel me- 
tallo che compensi questa tendenza si 
ottiene inclinando il gruppo stampo e 
matrice, applicando una forte pressione 
con il premilamìera (e. talvolta) disponen- 
do particolari nervature dette rompigrin- 
ze sulla superficie della matrice sotto il 
premilamìera. Su una matrice possonoes- 
servi parecchie di queste nervature di for- 
ma cilindrica, aventi diametri compresi 
fra 12 e 20 millimetri, che controllano la 
deformazione del metallo costringendo la 
lamiera a curvarsi e a raddrizzarsi mentre 
passa sopra le nervature prima di entrare 
nella cavità della matrice. 

Salvo nel caso di particolari stampati di 
forma semplicissima, le parti di metallo 
grezzo non vengono solo imbutite, ma 
anche stirate quando lo stampo pressa il 
semilavorato nella cavità della matrice. 
Lo stiramento è definito come un'esten- 



sione della superficie della lamiera in 
tutte le direzioni. I requisiti richiesti al 
materiale differiscono considerevolmente 
per l'imbutitura e per lo stiramento. Il 
progresso verso la conoscenza dell'in- 
fluenza che le proprietà del materiale 
hanno sulla deformazione del metallo è 
stato ottenuto soprattutto attraverso pro- 
ve di laboratorio riguardanti l'imbutitura 
e lo stiramento separatamente. 

£ io che succede durante l'imbutitura 
può essere chiarito descrivendo la 
realizzazione di una coppa cilindrica a 
fondo piatto (ri veda l'illustrazione in 
basso nella pagina a fronte). Tale pro- 
cesso è spesso chiamato imbutitura pro- 
fonda. Nell'imbutitura profonda la mag- 
gior parte della deformazione si verifica 
nella flangia e solo una mìnima frazione 
nella lamiera che è a contatto con lo 
stampo. Il processo determina piccole va- 
riazioni nello spessore finale o nella su- 
perficie. La contrazione circonferenzìale 
della flangia provoca corrugatone se non 
viene applicata una pressione sufficiente 
sul premilamìera. I] carico necessario per 
deformare la flangia viene trasmesso dal 
fondo della coppa tramile la parete della 
coppa stessa. Se questo supera la solle- 
citazione tollerabile dal metallo, questo 




La fotografia mostra un pezzo stampato come esce dalla pressa. 
Si tratta del pannello laterale posteriore sinistro di un'automobile. La 
superficie jl centro Millo l'arco, che si troverebbe sopra la ruota, sarà 
poi rimossa in un'operazione di rifilatura, analogamente a quanto 
verrà fatto per gran parte del materiale intomo ai bordi e all'estremità 
a destra, ove saranno sistemale le luci posteriori. Il materiale ai bordi 
è servilo per serrare il materiale grezzo nella pressa durante lo 



stampaggio. II raggrinzi mento e le ondulazioni sono stali prodotti 
durante l'imbutitura del metallo nell'operazione di stampaggio. Nel- 
l'angolo stampalo sopra la zona della ruota è a mala pena visibile un 
rettangolo scuro, costituito da una griglia di circoli Impressi sulla 
lamiera grezza per studiare le deformazioni che si verificano durante il 
processo. A pagina 102 sono riportale due fotografie che mostrano 
come il metodo della griglia di circoli rivela i dettagli della deformazione. 



si rompe in prossimità del fondo della 
coppa. 

Per una buona imbutitura è quindi 
necessario un materiale che resista all'as- 
sottigliamento della parete della coppa. 
In altre parole, il materiale dovrebbe 
essere meno resistente (in' modo da de- 
formarsi più facilmente) nel piano del 
semilavorato che non nello spessore: que- 
sta differenza direzionale di resistenza è 
chiamata anisotropia plastica. Tale pro- 
prietà è facilmente misurabile con un 
semplice esperimento di laboratorio. Dal- 
la lamiera viene tagliata e poi stirata una 
striscia lunga e sottile. L'anisotropia pla- 
stica viene determinata confrontando le 
contrazioni della lamiera nella larghezza 
e nello spessore. Se la larghezza si con- 
trae più dello spessore, il metallo resiste- 
rà all'assottigliamento durante l'imbuti- 
tura, consentendo imbutiture più pro- 
fonde. 

L'anisotropia plastica si sviluppa du- 
rante la lavorazione iniziale, per esempio 
la laminazione, ed è causata dalla natura 
cristallina dei metalli. Un metallo è com- 
posto da innumerevoli piccoli grani o 
cristalli, tutti legati fra loro e diversa- 
mente orientati. In ogni grano cristallino 
gli atomi sono disposti in un reticolo tri- 
dimensionale estremamente regolare. La 
cristallinità è il risultato del particolare 
legame atomico dei metalli che favorisce 
strutture a elevata simmetria e ad alta 
compattezza. 

Le strutture cristalline ad alta compat- 
tezza resistono energicamente alle forze 
che tendono a variare il loro volume, ma 
possono tagliarsi facilmente e cambiare 
la forma quando gli strati di atomi scor- 
rono uno sull'altro. Tali strati scorrono 
con maggiore facilità lungo piani cristal- 
lini molto compatti, in direzioni ad alta 
compattezza. Le strutture cristalline sem- 
plici hanno un elevato grado di simme- 
trìa e quindi molti piani e direzioni com- 
patti con conseguente facile scorrimento 
plastico. 

Lo scorrimento è facilitato dalle im- 
perfezioni cristalline chiamate dislocazio- 
ni, che sono piccole deviazioni dalla di- 
sposizione regolare degli atomi nel gra- 
no, le quali consentono agli atomi stessi 
di scorrere a piccoli passi invece che a 
intere file per volta. In realtà il movi- 
mento della dislocazione è il solo movi- 
mento che consente lo scorrimento. Nel- 
la struttura cristallina semplice di molti 
metalli tali dislocazioni sono facilmente 
inseribili: esse si muovono liberamente e 
si moltiplicano senza difficoltà durante 
la deformazione e quindi spiegano l'ele- 
vata duttilità di tali metalli. 

Durante l'enorme riduzione (che può 
raggiungere anche rapporti di 1000 a 1) 
che si verifica nella laminazione dei lin- 
gotti d'acciaio per ottenere le lamiere per 
le carrozzerie delle automobili, i singoli 
grani del metallo si allineano secondo 
alcune direzioni preferenziali. Le pro- 
prietà dei cristalli variano con la direzio- 
ne a causa delle regolarità direzionali con 
cui sono disposti i loro atomi e quindi le 
proprietà di massa della lamiera assumo- 
no una direzionalità analoga. Per la mi- 



f=\ 




In questa figura e rappresentata una pressa meccanica a doppio effetto. Il doppio effetto 
richiede il movimento di due slitte: la slitta principale che porta lo stampo, o matrice superiore, 
e la slitta che costituisce il premìlamiere. Con il primo movimento la pressa spinge verso il basso 
ìl premìlamiere, che pressa la lamiera intorno ai bordi. Con il movimento successivo la pressa 
spinge verso il basso la slitta principale stampando cosi il pezzo {in colore) fra lo slampo e la 
matrice inferiore. Il rompigrinze aiuta a controllare lo scorrimento del metallo facendolo 
curvare e poi raddrizzare mentre viene tirato nella cavità situala fra matrice e slampo. 



premìlamiere 




L'illustrazione mostra l'operazione di imbutitura, uno dei due modi principali di dare forma al 
metallo mediante stampaggio; qui viene stampala mediante imbutitura profonda una coppa ci- 
lindrica. Il grezzo di forma circolare è imbutilo nella matrice a forma di coppa mediante uno 
stampo a testa pialla. Le pareli sopportano la maggior parte del carico e tendono a subire un as- 
sottigliamento. Periamo per l'imbutitura è necessario un materiale resìstente all'assottigliamento. 



96 



97 



a 






Le hirulture cristalline più comuni nei metalli sono quelle qui rappre- 
sentale: reticolo cubico a facce centrate (a) con un atomo in ogni 
angolo e uno ai centro di ogni faccia del cubo; relicolo cubico a corpo 
centrato ibi con un atomo in ogni angolo e uno al centro del cubo e 
infine, reticolo esagonale compatto (e). La struttura cristallina in- 
fluenza la rapacità del cristallo a cambiare forma mediante il mec- 



B 



canismu dello scorrimento, che consiste nel cambiamento di posizio- 
ne degli atomi; essa rappresenta quindi un fattore di notevole impor- 
tanza nella scelta del metallo adatto per il processo di stampaggio. Lo 
-.corri mento si verìfica più facilmente lungo t piani di maggiore 
densità atomica Un colore) e nelle direzioni di maggiore densità 
(frecce}. Anche i piani equivalenti consentono un facile scorrimento. 



SOLLECITAZIONE DI TAGLIO 




SOLLECITAZIONE Dt TAGLIO 



In questa illustrazione è mostrato il ruolo assunto dalie dislocazioni 
nel meccanismo dello scorrimento. La dislocazione illustrala è un 
semipiano aggiuntivo di atomi Un colore scuro) nel reticolo cristallino. 
La deformazione avviene mediante taglio lungo un piano di scorri- 
mento che è perpendicolare al semipiano aggiuntivo di atomi. Se la 



sollecitazione di (aglio viene applicata nella direzione indicala dalle 
frecce in allo e in basso, gli atomi vengono spostali con un movimen- 
to che assomiglia allo scorrimento di una piega in un tappeto, dando 
luogo a un cambiamento di forma del cristallo, come suggerito in 
questo schema dal semipiano di atomi rappresentato in colore tenue. 



gliore resistenza alla riduzione di spesso- 
re, e perciò per [a migliore capacità di 
essere imbutita, una lamiera dovrebbe 
avere il maggior numero possibile di cri- 
stalli allineali in modo che la direzione 
nella quale essi sono più resistenti sia 
parallela allo spessore del materiale. 

Nei cristalli a simmetria cubica, fre- 
quente nei metalli, questa direzione è 
lungo la diagonale interna del cubo. In 
metalli come l'acciaio, che ha un reticolo 
cristallino cubico a corpo centrato (un 
atomo in ogni angolo e uno al centro del 
cubo), l'allineamento preferito dei cri- 
stalli può essere ottenuto abbastanza fa- 
cilmente. In metalli come l'ottone, il ra- 
me e l'alluminio, che hanno un reticolo 
cubico a facce centrate {un atomo in 
ogni angolo e uno al centro di ogni lato 
del cubo), l'allineamento si ottiene diffi- 
cilmente a causa delle numerose direzio- 
ni secondo le quali i cristalli possono 
scorrere durante la deformazione. Nei 
metalli con strutture cristalline differenti 
le direzioni di scorrimento sono assai 
limitate e così la possibilità di ottenere la 
direzionalità esiste, quantunque non dia 
necessariamente luogo a un allineamento 
favorevole. Per esempio tanto il titanio 
quanto Io zinco hanno strutture cristalli- 
ne esagonali ad alia compattezza, ma nel 
titanio l'allineamento è favorevole a una 
imbutitura profonda, mentre nello zinco 
ciò non si verifica. 

L'importanza dell'anisotropia plastica 
nell'imbutitura profonda è stata indivi- 
duata solo 15 anni fa; prima di allora 
questa caratteristica era considerata in- 
desiderabile e un metallo non deforma- 
bile nella stessa misura in tutte le dire- 
zioni era ritenuto difficile da lavorare. I 
produttori d'acciaio hanno fatto impor- 
tanti progressi nello sviluppo di acciai da 
imbutitura profonda e anche i fabbri- 
canti di titanio hanno tratto profitto dal- 
l'anisotropia. Comunque i metalli con 
reticolo cubico a facce centrate hanno un 
comportamento scadente nelle operazio- 
ni di imbutitura. 

Durante lo stiramento tutte le sollecita- 
zioni sono di trazione al contrario di 
quanto avviene durante l'imbutitura, non 
essendo presente nessuna azione compen- 
sativa di compressione. Per essere stra- 
bile con facilità un metallo deve presen- 
tare soprattutto la proprietà di diventare 
più resistente durante la sollecitazione o 
la deformazione. È questo processo di 
indurimento intrinseco, conosciuto come 
incrudimento, che rende progressivamen- 
te più difficile piegare un filo dopo pie- 
gature ripetute (finché naturalmente il 
filo non si spezza). L'incrudimento aiuta 
a impedire che la sollecitazione si localiz- 
zi facilitando il trasferimento della defor- 
mazione verso zone meno deformate. Il 
processo facilita quindi una deformazio- 
ne più uniforme. 

L'incrudimento dei metalli si dimostra 
con una prova di trazione. Una lunga 
striscia di metallo viene sottoposta a tra- 
zione mentre vengono misurati e regi- 
strati la sollecitazione e il conseguente 
allungamento. Il carico necessario per 



140 



120 



100 



z 

Ili 

o 



U 
2 



z 
O 



er 

o 




60 



-40 



-20 20 40 

DEFORMAZIONE SECONDARIA (PER CENTO! 



60 



80 



Il diagramma del limite di stampaggio, ottenuto mediante prove di deformazione dei metalli, 
indica se un metallo può essere formato senza rìschio di rotture. La banda colorata è relativa 
all'acciaio; nel caso di deformazione nella zona sottostante ta banda, l'acciaio può essere 
sottoposto a stampaggio senza inconvenienti, mentre nella zona supcriore le deformazioni pos- 
sono produrre con molta probabilità rolture durante lo stampaggio. Le curve relative, ad altri 
metalli sono state stabilite sperimentalmente con minore sicurezza ehe non per l'acciaio. 



allungare il metallo continua ad aumen- 
tare anche dopo il punto in cui incomin- 
cia la deformazione permanente. Quanto 
maggiore è l'incremento del carico con 
l'allungamento, tanto maggiore è l'incru- 
dimento. 

Man mano che procede lo stiramento, 
il metallo diventa sempre più sottile e 
perde quindi la sua capacità di portare 
un carico. Questo indebolimento geome- 
trico contrasta con l'incrudimento e alla 
fine prevale su di esso: nel punto in cui 
le due azioni sono in equilibrio, il carico 
raggiunge il valore massimo. In seguito 
la deformazione diventa instabile perché 
continua anche con carichi sempre de- 
crescenti, concentrandosi gradualmente 
intorno a un punto debole del materiale; 
questo processo è chiamato strizione dif- 
fusa. Alla fine la deformazione si loca- 
lizza totalmente in una strozzatura e il 
metallo si rompe. 

Quando incomincia la strizione diffu- 
sa si verifica anche un gradiente nella 
velocità di deformazione in tutta la lun- 
ghezza della provetta. La resistenza di 
molti metalli è sensibile alla velocità di 
deformazione. Durante la strizione un 
metallo che indurisce quando aumenta 
tale velocità («indurimento per velocità 
di deformazione»), resiste alla localizza- 
zione della deformazione e ritarda l'ini- 



zio delia strizione localizzata. Tanto l'in- 
crudimento quanto l'indurimento per ve- 
locità di deformazione sono influenzati 
dalla temperatura a cui avviene il pro- 
cesso. Quando una lamiera metallica vie r 
ne pressata fra uno stampo e una matri- 
ce, i gradienti e la velocità di deforma- 
zione aumentano rapidamente a causa 
della complessità geometrica della forma 
e dell'attrito prodotto dal contatto fra il 
metallo e lo stampo. Sia l'incrudimento, 
sia l'indurimento per velocità di defor- 
mazione sono quindi essenziali per favo- 
rire una deformazione uniforme. 

L'incrudimento e l'indurimento per 
velocità di deformazione possono essere 
spiegati esaminando il comportamento 
degli atomi durante la deformazione. Una 
variazione di forma richiede uno scorri- 
mento fra I cristalli del metallo, scorri- 
mento che è conseguente al movimento 
delle dislocazioni. L'indurimento dipen- 
de dalla resistenza che le dislocazioni 
incontrano scorrendo nel cristallo. La 
resistenza è dovuta a ostacoli come bordi 
dei cristalli, atomi estranei e difetti nella 
disposizione degli atomi nel cristallo. 
L'entità della resistenza dipende invece 
dal tipo di struttura cristallina. Nell'ot- 
tone, nel bronzo e in alcuni acciai inos- 
sidabili, per esempio, i difetti di accresci- 
mento si estendono su distanze equiva- 



98 



99 



lenti a molti diametri atomici; questi di- 
fetti possono quindi costituire dei grossi 
ostacoli tanto che il metallo resiste allo 
scorrimento incrociato delle dislocazioni 
da un piano dì scorrimento a un altro. 
Di conseguenza le dislocazioni iniziano 
ad accumularsi secondo delle distribuzio- 
ni bidimensionali in modo analogo a del- 
le automobili a un semaforo; il loro ac- 
cumulo continuato porta a un rapido in- 
durimento. All'altra estremità della scala 
degli indurimenti l'alluminio e il ferro 
presentano una facilità di scorrimento 
incrociato e quindi induriscono più len- 
tamente. 

In un cristallo gli ostacoli possono 
creare alterazioni locali o estese. Se l'al- 
terazione è estesa (cioè superiore a dieci 
diametri atomici), per esempio grosse 
particelle estranee o dislocazioni accumu- 
late su piani di scorrimento paralleli nel- 
l'ottone, la velocità di deformazione non 
ha influenza sullo scorrimento plastico o 
sull'indurimento. Se l'alterazione è loca- 
le, per esempio una discontinuità dovuta 
ad atomi estranei o ad altre dislocazioni 



singole, le vibrazioni termiche degli ato- 
mi nel reticolo cristallino possono facili- 
tare lo scorrimento plastico. Se la veloci- 
tà di deformazione è elevata tale facili- 
tazione è di scarsa importanza e il risul- 
tato è un indurimento maggiore di quello 
che si verifica a velocità minori. 

L'importanza che questi processi mi- 
croscopici di incrudimento e di induri- 
mento per velocità di deformazione han- 
no nei riguardi dell'uniformità di defor- 
mazione su vasta scala viene valutata nel 
modo migliore in laboratorio con una 
prova dì stiramento per stampaggio. Su 
una lamiera grezza viene tracciata una 
griglia di circoli di piccolo diametro che 
fornisce il mezzo per misurare la defor- 
mazione. La lamiera è poi stretta rigida- 
mente al fine di evitare qualsiasi imbuti- 
tura ai bordi e deformata sopra uno 
stampo semisferico non lubrificato in ac- 
ciaio. Un materiale con buona stirabilità 
presenta una deformazione uniforme sul- 
lo stampo. 

Nello stiramento un altro fattore im- 
portante è la deformazione totale che il 



materiale subisce prima della rottura o 
delia lacerazione. Stuart P. Keeler della 
National Steel Corporation e Gonon M. 
Goodwin della Chrysler Corporation han- 
no espresso tale concetto in un diagram- 
ma empirico del limite di stampaggio. 
Eseguendo molti esperimenti di labora- 
torio ed esaminando centinaia di pezzi 
stampati della linea di produzione, tro- 
varono che il diagramma degli acciai a 
basso tenore di carbonio presenta un'u- 
nica banda di rottura. La banda è deter- 
minata riportando in un diagramma la 
massima deformazione superficiale nella 
lamiera (la deformazione principale) ri- 
spetto a quella in direzione perpendico- 
lare (quella secondaria). La banda di 
rottura separa le combinazioni di defor- 
mazioni accettabili (al dì sotto della ban- 
da) da quelle che causano rotture (al di 
sopra della banda). Tali curve possono 
oggi essere determinate mediante misure 
eseguite con prove di stiramento per 
stampaggio. I diagrammi del limite di 
stampaggio hanno fornito per la maggior 
parte di tali operazioni ottime previsioni 



; 

8 



E 

O 




ALLUNGAMENTO 



L'ai lunga me nlo Millo carico viene provato sottoponendo a trazione 
un pezzo di lamiera metallica. 11 punto ove la curva in colore piega a 
destra è il punto di snervamento, a partire dal quale la forma del 
infialili cambia in modo permanente. Oltre tale punto il metallo 
continua a indurire man mano che si allunga ed è quindi in grado di 
sopportare carichi crescenti. Tale indurimento intrinseco, denominalo 
incrudimento, bilancia la ridotta capacità del melallo d) sopportare 



carichi a causa dell'assottigliamento. In corrispondenza del carico 
massimo (picco della curva) i due effetti si compensano e inizia ii 
processo di localizzazione della deformazione, che alla fine porla alla 
rottura. L'aspetto del metallo in relazione alle varie fasi della prova è 
illustrato sopra la curva. Nel punto di massimo carico comincia a 
presentarsi una strinone diffusa; in prossimità del punlo di rottura la 
slrìzione $ concentrata nella zona in cui il metallo si strappa. 



di rottura e sono diventati utilissimi per 
prevedere la stirabilità (si veda l'illustra- 
zione a pagina 99). 

La miglior misura della stirabilità è 
data dalla massima altezza raggiunta dal- 
la coppa semisferica a duomo prima del- 
la rottura, durante la prova di stiramen- 
to per stampaggio. La misura indica nel- 
lo stesso tempo l'uniformità della defor- 
mazione e la deformazione in corrispon- 
denza della rottura rivelando inoltre la 
superiorità dell'ottone (elevato incrudi- 
mento) e dell'acciaio (incrudimento e in- 
durimento per velocità di deformazione 
moderatamente elevati) e la scadente pre- 
stazione di alcune leghe di alluminio (in- 
crudimento moderato, ma indurimento 
per velocità di deformazione attenuato). 

Nello stampaggio un fattore importan- 
te, oltre alle proprietà del materiale, è la 
lubrificazione. Sebbene i meccanismi del- 
la lubrificazione nello stampaggio delle 
lamiere metalliche siano poco noti, i suoi 
favorevoli effetti sono ben documentati. 
La lubrificazione favorisce sempre una 
più uniforme distribuzione della solleci- 
tazione e in effetti è spesso più efficace 
di un miglioramento delle proprietà del 
materiale. 

Le operazioni di piegatura sono una 
parte integrante di tutti gli stampaggi 
complessi. Nella piegatura, al contrario 
di quanto avviene nella maggior parte 
delle operazioni dì stiramento, si verifica 
un forte gradiente di sollecitazione su 
lutto lo spessore del materiale. Sulla fac- 
cia esterna delia piegatura la sollecitazio- 
ne è di tensione, in quella interna è di 
compressione o di tensione di valore ri- 
dotto. L'entità della sollecitazione di ten- 
sione dipende dal raggio, dall'angolo e 
dalla lunghezza della piegatura. La rot- 
tura si verifica sulla faccia più sollecitata 
per assottigliamento e frattura. L'in- 
crudimento, l'indurimento per velocità 
di deformazione e la deformazione a rot- 
tura sono fattori importanti dell'idoneità 
di un metallo alla piegatura. 

T a differenza più notevole fra la piega- 
*•' tura e lo stiramento è il ruolo delle 
impurità o delle inclusioni microscopiche 
non metalliche. Queste vengono incor- 
porate nella massa metallica durante la 
solidificazione dei lingotti e nella lami- 
nazione a caldo vengono allungate dan- 
do luogo a «venature». Nella piegatura 
le venature provocano rotture precoci se 
sono orientate perpendicolarmente alla 
direzione dì piegatura. Se invece il mate- 
riale viene piegato secondo una direzione 
parallela alle venature, mantiene la dul- 
tilità normale (si veda l'illustrazione qui 
a fianco). 

Questa differenza fra la piegabilità tra- 
sversale e quella longitudinale non è sem- 
pre rivelata nelle prove di trazione. Negli 
acciai ad alta resistenza e a basso tenore 
di elementi leganti di recente sviluppo la 
forma delle inclusioni viene controllata 
con l'aggiunta, durante la colata, di trac- 
ce di una terra rara, per esempio di 
cerio. Il cerio si combina con le inclusio- 
ni di solfuro di manganese, di solito 
presenti, rendendole resistenti alla tem- 



PEZZO GREZZO 



PREM1LAMIERE 




STAMPO 

ti secondo modo principale di dare forma alle lamiere metalliche mediante stampaggio è lo 
stiramento, illustrato qui in una prova impiegata in laboratorio per stabilire la deformazione 
subila da un pezzo di lamiera durante lo stiramento per stampaggio. Un pezzo di melallo grezzo 
Un colore) viene serrato fortemente ai bordi e quindi stiralo sopra uno stampo semisferico. Il ca- 
nale nella matrice superiore come pure Ea nervatura in quella inferiore assicurano che nel melallo 
non vi sia imbutitura in modo che la prova consenta di accertare esclusivamente lo stiramento. 



CRICCHE DELLE FIBRE ESTERNE 




IREZIONE DI LAMINAZIONE 



DIREZIONE DI LAMINAZIONE 




L'operazione di piegatura è spesso parte integrante dello stampaggio delle lamiere metalliche, in 
particolare nell'esecuzione di flange che consentono il collegamento della parte stampata con 
altre parli. Durante la piegatura le fibre della lamiera sul bordo esterno della piega sono sotto- 
poste a tensione e quelle interne a compressione. Le impurità introdotte nel metallo durante il 
processo di fusione si allungano formando «venature» quando il massello viene sottoposto a la- 
minazione. Durante la piegatura le venature possono provocare cricche nella lamiera se sono 
orientate in direzione perpendicolare alla direzione della piegatura (in alto). Se invece sono orien- 
tate parallelamente alla direzione di piegatura (hi basso), la duttilità del metallo resta normale. 



100 



101 




in queste due fotografie è mostrato il metodo delta griglia di circoli per la prova dello stam- 
paggio. In alto è illustralo un pezzo di acciaio grezzo sul quale è stata impressa una griglia dì 
cimili aventi un diametro di 2,5 millimetri; in basso lo stesso pezzo dono lo stampaggio in forma 
semisferica nell'apparecchiatura di laboratorio impiegata per la prova di stiramento. L'altera- 
zione dei circoli dopo lo stampaggio rivela la concentrazione e l'entità della deformazione. 



peratura a cui viene laminato l'acciaio. 
Di conseguenza durante Ja laminazione 
del massello le inclusioni non si defor- 
mano, ma rimangono sferiche e quindi 
non determinano caratteristiche indesi- 
derabili alla piegatura trasversale. 

P er molti anni gli acciai a basso tenore 
di carbonio hanno soddisfatto quasi 
tutte le richieste per lo stampaggio di 
lamiere metalliche. Questi acciai resisto- 
no bene alla deformazione inerente allo 
stampaggio, possono essere prodotti con 
un'opportuna anisotropia plastica, una 
notevole capacità di incrudimento e di 
indurimento per velocità di deformazio- 
ne e un'alta curva del lìmite di stampag- 
gio; vengono prodotti in enormi quantità 
e a basso costo. Inoltre l'acciaio a basso 
tenore di carbonio possiede un'ottima 
rigidità e una buona resistenza di modo 
che soddisfa a molti requisiti strutturali, 
presentando anche una buona finitura 
superficiale. 

Tuttavia i recenti orientamenti dell'in- 
dustria automobilistica hanno messo in 
rilievo la convenienza di ridurre il peso 
dei veicolo per limitare il consumo di 
carburante, impiegando nello stesso tem- 
po materiali di elevata resistenza che pos- 
sano assorbire con efficacia l'energia nel- 
le collisioni. Di conseguenza nelle costru- 
zioni automobilistiche sono stati intro- 
dotti materiali, come le leghe di allumi- 
nio e gli acciai ad alta resistenza, che 
hanno un rapporto resistenza-peso mi- 
gliore di quello degli acciai convenzionali 
a basso tenore di carbonio. Si tratta di 
materiali molto più difficili da stampare 
e per essi manca l'esperienza di produ- 
zione. La selezione del metalli adatti allo 
stampaggio è stata notevolmente facilita- 
ta dagli studi di laboratorio dei semplici 
processi prima descritti. Si è attualmente 
compreso che la scelta delle appropriate 
prove di laboratorio dipende dalla forma 
del pezzo e dal metodo di stampaggio. 
Qualora sia possibile individuare il modo 
critico di stampaggio, cioè accertare se la 
parte sarà sottoposta prevalentemente a 
imbutitura oppure a stiramento, allora la 
scelta del materiale adatto risulta più fa- 
cile. 

II problema principale nello studio a- 
nalitico dello stampaggio delle lamiere è 
di predire gli andamenti della deforma- 
zione. Siccome la deformazione avviene 
in vari modi e in zone diverse, t calcoli 
matematici basati su ipotesi di stati sem- 
plificati di sollecitazione e su proprietà 
idealizzate dei materiali non hanno dato 
risultati accettabili. Almeno per quanto 
riguarda la predizione degli andamenti 
della deformazione nell'imbutitura e nel- 
la stiratura semplici . o simmetriche, ■ è 
stato ottenuto maggior successo con il 
metodo dell'elemento finito per l'analisi 
della sollecitazione, nel quale la forma e 
suddivisa in molti elementi di piccole 
dimensioni, per ciascuno dei quali ven- 
gono risolte le appropriate equazioni di 
anatisi della sollecitazione. Un tale me- 
todo di affrontare il problema è possìbile 
solo con un moderno calcolatore ad alta 
velocità. Ma anche così le soluzioni ne! 



102 



caso di forme e di carichi complessi non 
sono in genere ottenibili. Quindi i pro- 
gressi relativi allo stampaggio delle la- 
miere metalliche continueranno a essere 
parzialmente empirici. 

In questo contesto il metodo della gri- 
glia di circoli, già menzionato in relazio- 
ne allo stiramento, si è dimostrato utile 
nell'analisi degli elementi stampati otte- 
nuti in una linea di produzione. Il meto- 
do venne introdotto da Keeler in sostitu- 
zione dei quadrati da 25,4 millimetri (1 
pollice) usati in precedenza. Un rapido 
processo elettrochimico forma una gri- 
glia di circoli (con diametri di 2,5 o 5 
millimetri) sulla lamiera grezza. Dopo lo 
stampaggio, i circoli rivelano l'andamen- 
to della deformazione identificando per 
un controllo le zone di forte deformazio- 
ne. In tali zone critiche una serie di cir- 
coli può essere misurala e riportata in 
diagramma per indicare la concentrazio- 
ne della deformazione. I cambiamenti 
nelle variabili del processo di stampaggio 
come la lubrificazione, la pressione del 
premìlamiera, i rompigrinze, la dimen- 
sione e la forma del semilavorato posso- 
no così essere controllati per vedere se 
contribuiscono realmente a migliorare la 
uniformità di deformazione. 

Nei casi particolarmente difficili si 
possono misurare le deformazioni che 
si sono verificate durante le varie fasi di 
stampaggio per stabilire la loro succes- 
sione. Conoscendo lo svolgimento di que- 
sta successione sì può sperare di evita- 
re indesiderabili concentrazioni di defor- 
mazione. 

L'analisi mediante la griglia di circoli 
serve anche, insieme con il concetto della 
curva del limite di stampaggio, per de- 
terminare quanto un particolare stampa- 
to può essere deformato senza giungere 
regolarmente alla rottura. Essa è prezio- 
sa anche nella fase di preproduzione 
quando vengono apportate le modifiche 
definitive alla matrice e nella selezione 
del materiale. Il metodo aiuta a determi- 
nare se la matrice, la lubrificazione e il 
materiale daranno luogo a uno stampag- 
gio soddisfacente. Inoltre il controllo del 
grado di deformazione nel corso delle 
serie di produzione indica se un materia- 
le meno plastico (e probabilmente più 
economico) potrebbe dare risultati sod- 
disfacenti. 

Di quando in quando si incontrano 
difficoltà dopo una lunga serie di produ- 
zioni. Lo stampaggio di alcuni semilavo- 
rati-campione messi precedentemente da 
parte, indicherà se l'inconveniente è cau- 
sato da usura della matrice, da lubrifica- 
zione difettosa o da variazioni nel mate- 
riale. Anche la ricerca degli inconvenien- 
ti è stata molto perfezionata perché l'ef- 
ficacia di qualsiasi cambiamento appor- 
tato nella lìnea di produzione può essere 
controllata mediante lo stampaggio di 
semilavorati con grigliatura. L'analisi 
della griglia di circoli ha sostituito la 
«sensazione» dell'operaio specializzato 
per l'appropriato scorrimento del metal- 
lo e il concetto del limite di stampaggio 
ha fornito uno strumento diagnostico per 
l'analisi delle rotture. 



Telescopi astronomici 

Celestron® 




La gamma Celestron comprende una serie di strumenti da 13 a 35 cm 

di apertura: Celestron 5, Celestron 8 e Celestron 14. 

Questi strumenti possono essere utilizzati sia per osservazioni visuali che per 

fotografia astronomica. Per maggion dettagli richiedere il catalogo a colori alla 

Rappresentante esclusivo per l'Italia 



Prodotti GIANNI 



s.r.l. 



Vìa Mecenate 30/14-20138 Milano -Tel. 50.97 

I telescopi Celestron saranno esposti dal 19 al 27 marzo 1977 al VII Salone Internazionale 

One Foto Ottica e Audiovisivi SICOF 77 nei quartiere Fiera di Milano Pad. 19. 

Si concedono facilitazioni ai soci dell'Unione Astrofili Italiana. 



103 



GIOCHI MATEMATICI 



di Martin Gardner 



Problemi combinatori vecchi e nuovi recentemente 
affrontati col calcolatore 



La «rivoluzione combinatoria» in ma- 
tematica è ancora in piena esplosio- 
ne, visto che libri e articoli di mate- 
matica combinatoria continuano a pro- 
liferare. Certamente alla rivoluzione con- 
tribuisce il calcolatore con la sua capaci- 
tà di analizzare problemi combinatori 
troppo complessi per essere risolti in al- 
tro modo. Un altro stimolo viene dalle 
sempre più numerose applicazioni della 
teoria combinatoria alla scienza e alla 
tecnologia, soprattutto nella fisica delle 
particelle e nella biologia molecolare. 

Centinaia di interessanti rompicapo 
combinatori vecchi e nuovi cominciano 
ora a ricevere l'attenzione di seri mate- 
matici. Daremo prima un'occhiata a un 
divertente rompicapo a premio ideato da 
Sam Loyd, che è stato recentemente «fal- 
sificato» o invalidato da un programma 
per calcolatore; seguiranno vari proble- 
mi combinatori che non hanno per il 
momento una soluzione generale, ma 
che, ai loro livelli inferiori, stimolano ad 
impegnarsi a tale scopo. 

Il più grosso libro di rompicapo che sia 
mai stato pubblicato negli Stati Uniti è 
un grande volume di colore verde pallido 
rilegato in tela intitolato Sam Loyd's 
Cyclopedia of 5000 Puzzles, Tricks and 
Conundrums, with Answers. Tutte le co- 
pie sono datate 1914. Dato che Loyd era 
morto tre anni prima fu avanzata da più 
parti l'ipotesi che suo figlio, che aveva lo 
stesso nome del padre, avesse scelto ì 
rompicapo da vecchi giornali e riviste e li 
avesse frettolosamente messi insieme in 
un unico grosso volume. (11 libro è co- 
stellato di omissioni, errori e refusi.) Più 
tardi si scopri che Loyd padre aveva 
diretto e pubblicato una rivista trime- 
strale chiamata «Our Puzzle Magazine», 
che apparve per la prima volta nel giu- 
gno del 1907. Copie di tale rivista sono 
ora estremamente rare. La Cyclopedia è 
semplicemente una ristampa di questa 
rivista, fatta utilizzando senza cambia- 
menti le sue matrici. 

Il rompicapo di Loyd «Ritorno dal 
Klondike», che si vede nell'illustrazione 
in alto nella pagina seguente, apparve 



nel secondo numero della rivista (ottobre 
1907) ed è riprodotto a pagina 106 della 
Cyclopedia. 

«Partite dal cuore nel centro, • dice 
Loyd - e fate tre passi in linea retta in 
una qualsiasi delle otto direzioni, nord, 
sud, est, ovest e nord-est, nord-ovest, 
sud-est, sud-ovest. Fatti tre passi in linea 
retta, raggiungerete un quadratino con 
sopra un numero che indica il cammi- 
no della seconda giornata, tanti passi 
quanti dice il numero, da farsi in una 
delle otto direzioni. Raggiunto il nuovo 
punto, camminate ancora in conformità 
al numero indicato e continuate cosi, se- 
guendo le indicazioni dei numeri man 
mano raggiunti, finché arrivate su un 
quadratino il cui numero vi manderà 
giusto di un passo al di là del bordo; a 
quel punto potete ben dirvi fuori dai 
guai e avrete risolto il rompicapo.» 

La soluzione suggerita da Loyd è mo- 
strata dalla linea colorata. Il sentiero 
corre semplicemente su e giù lungo una 
diagonale principale finché raggiunge un 
numero che rende possibile ciò che Loyd, 
nella sua risposta, chiama «una mossa 
sfacciatamente fortunata verso la libertà 
via sud-est». Loyd afferma che la solu- 
zione è unica. «Chi ha fallito nell'ese- 
guirlo si è senza dubbio accorto che ba- 
sta un passo falso a un qualsiasi stadio 
del gioco per cadere nel vortice da cui 
non sì esce.» 

Ma il vecchio maestro aveva torto! 
All'inizio di quest'anno Penelope J. Gre- 
ene, laureata in sociologia all'Università 
di Washington, R. Duncan Mitene!!, lau- 
reato in economia nella stessa università, 
e Horace A. Greene, insegnante di scien- 
ze alla Roosvelt University di Chicago, 
affrontarono insieme il problema con un 
programma Fortran compilato da Mit- 
ene!]. In pochi secondi il programma 
trovò la soluzione di Loyd, insieme a 
centinaia dì altre. In effetti è possibile 
cavarsi d'impaccio allontanandosi dal 
3 centrale lungo una qualsiasi delle otto 
direzioni. L'illustrazione in basso della 
pagina a fronte mostra i primi passi di 
un percorso alternativo. Tutti questi altri 



percorsi portano alla fine al 4, passaggio 
chiave a partire dal quale il tragitto viene 
completato come nella soluzione di Loyd. 

I tre programmatori notarono qualco- 
sa di insolito nella risposta alternativa. 
Uno ed un solo quadratino, non compre- 
so nella soluzione di Loyd, è comune a 
tutti i percorsi sostitutivi. 1 tre lo chia- 
marono il «2 importuno» indicato con 
un cerchietto nell'illustrazione. È possi- 
bile che sia stato un errore del disegnato- 
re? Sembra verosimile, perché, quando i 
programmatori sostituirono al 2 altre ci- 
fre, il calcolatore trovò una sola cifra 
diversa da zero che eliminasse tutti i 
tragitti alternativi. 

Questo è il piacevole compito - davve- 
ro molto facile - che propongo ai lettori 
in attesa della soluzione del prossimo 
mese: correggete il rompicapo Klondike 
di Loyd, sostituendo il 2 importuno con 
la sola cifra diversa da zero che restitui- 
sce unicità alla soluzione di Loyd. Chia- 
mando unica la soluzione di Loyd non 
teniamo conto degli inutili «giri viziosi», 
tipo lasciare una casella solo per tornarci 
di nuovo prima di procedere oltre, oppu- 
re lasciare A e fare un giro per raggiun- 
gere B quando si può andare direttamen- 
te da A a B. 

L'origine della dama cinese, un gioco 
da tavolo popolare nel mondo fin dal 
1920, è oscura. Sembra sicuro che sia 
stato messo in commercio sotto questo 
nome per la prima volta negli Stati Uniti. 
Non ha nulla a che vedere con la Cina e 
quasi nessuna somiglianza con la dama, 
ma il nome è rimasto. 

La scacchiera standard è quella che si 
vede nell'illustrazione a pagina 106. I bu- 
chi sono stati numerati per registrare più 
agevolmente le mosse, e sono state ag- 
giunte delle linee colorate per delineare i 
bordi delle scacchiere stellari più piccole. 
Se si gioca in due si piazzano dieci palli- 
ne di un colore nel «recinto» triangolare 
formato dai buchi numerati da 112 a 
121. Le regole del gioco sono simili a 
quelle dell'Halma (si veda questa rubrica 
in «Le Scienze», n. 58, giugno 1973), un 
popolare gioco inglese che probabilmen- 
te suggerì la variante rappresentata dalla 
dama cinese. 

Sono permessi due tipi di mossa. Un 
«passo» è una mossa in una qualsiasi 
delle sei direzioni verso un buco vuoto 
adiacente. Un «salto» è una mossa con 
cui si scavalca una pallina vicina, sempre 
in una delle sei direzioni, per raggiungere 
un buco vuoto dall'altra parte. Saltare è 
come «mangiare» nella dama, solo che il 
pezzo scavalcato non viene tolto e può 
essere tanto un pezzo proprio quanto 
dell'avversario. Un pezzo può continua- 
re a saltare fin dove gli è possìbile oppu- 
re fermarsi in un qualsiasi punto senza 
completare la serie di salti. 1 salti non 
sono mai obbligatori. Non si possono 
fare contemporaneamente passi e salti. 
Vince chi arriva per primo a occupare 
tutti i buchi del recinto di partenza del- 
l'avversario. 

II gioco è ovviamente impraticabile 
sulla «stella» degenere composta di un 
unico buco. Sulla stella immediatamente 



104 



più grande ogni giocatore ha una sola 
pallina e il gioco ha come banale esito la 
vittoria di chi muove per primo. In una 
stella più grande con tre palline da cia- 
scuna parte, il gioco diventa enorme- 
mente più complesso, lo credo che non 
si sappia chi dei due giocatori vince. 

Su questa stella il gioco è molto piace- 
vole. Per impedire che un giocatore fac- 
cia concludere la partita in pari tenendo 
sempre una pallina nel suo recinto biso- 
gna aggiungere un'altra regola; se una 
pedina può lasciare il proprio recinto 
saltando una pedina avversaria, deve far- 
lo. Una volta fuori dal recinto non può 
ritornarci, benché gli sia concesso di at- 
traversarlo in una catena di salti. 

Prendiamo in esame su ogni scacchiera 
stellare il seguente problema in forma di 
solitario. Una volta piazzate le palline di 
un colore in posizione di partenza nel 
recinto in basso, si deve calcolare il nu- 
mero minimo di mosse (contando una 
catena di salti come una singola mossa) 
necessario per trasferirle tutte nel recinto 
in alto? 

11 problema è privo di senso per la 
stella più piccola ed è banale per la stella 
a 13 buchi. Per una stella con un recinto 
dì tre palline ci vorranno 1 1 mosse. E- 
sempio: 92-81, 81-71, 105-82-61, 61-52, 
93-82, 82-61-42, 42-30, 71-61, 61-42-17, 
52-41,41-29. 

Per una stella con sei palline la solu- 
zione migliore che ho trovato comporta 
18 mosse. Partendo con 113-93 ci sono 
molti modi per costruire in nove mosse 
una «scala» di palline sui buchi 9, 30, 
52, 71, 93 e 114. Altre nove mosse, rove- 
sciando il gioco precedente, portano le 
sei palline nel recinto in alto. 

Veniamo ora al problema principale: 
qua! è il numero minimo di mosse neces- 
sario per trasferire 10 palline da un re- 
cinto a quello opposto su un campo da 
dama cinese standard? Ebbi notizia per 
la prima volta di questo problema nel 
1961 da Octave Levenspiel, professore di 
ingegneria chimica all'Oregon State Uni- 
versity. Egli scriveva che 31 mosse era 
quanto di. meglio fosse riuscito a fare, 
ma che sua madre, «la campionessa della 
famiglia per quanto riguarda rompicapo, 
scacchi e bridge», aveva una volta risolto 
il problema in 28 mosse, che però non 
era riuscita a ricordare. «Ibidem», un 
periodico canadese di magia (che ora 
non viene più pubblicato), pubblicò, nel- 
l'agosto del 1969, una «dimostrazione» 
del fatto che 29 è il minimo numero di 
mosse. In seguito nel 1971, Levenspiel 
cercando di ricostruire la soluzione a 28 
mosse di sua madre trovò una spettaco- 
lare soluzione in 27 mosse! Harry O. 
Davies di Portland, Oregon, ritiene di 
poter dimostrare che 27 è il numero mi- 
nimo di mosse, ma questa affermazione 
non è ancora stata confermata. 

C'è qualche lettore che riesce a trovare 
una soluzione con 27 mosse? Sarò felice 
di aver notizia di qualcuno che riesca a 
risolvere il problema in un numero mi- 
nore di mosse, o ad abbassare uno qual- 
siasi dei minimi qui dati per ì campi di 
gioco più piccoli. A volte la dama cinese 







a 7 












BF^ a u 


4 [!<?■ 




l 5 ! ^ 


a 


B-s 


D 


n 0t-*i 




3^a*n u 


5jg 


-:Qf Q 


nm 




■ai 


7090*306 
3704090 

BJD 


H 
H 

0/ 


0/0; i 

/020 

QJQ2E 


3HG 

7 03 






leu 


.? 


7 




3; GO^rJ 


20 


4020 


(far 


6 0/11' 


i a 


gjg 


u 

31 


-0/0<s0 


40s| 

n n 


3JH2.G 


in 


?0j 





7 

B 

8 


■'H'Si 


'H.? 


i&*i320; H.J0 


2 



202| 


genun- 


3U 


/0/0< 


50/ 


70/0.: 
370?E 


i& + 


02 


BrQ90^ 


8 




ì a 


H 


/B-JH- 


?02 

3 


□ 


2 0/0, 


;Q2 


02 


a 


un 


37040 


'U 


/E20; 


>H/ 






5QJ.0; 


'0 6 


u 


0: 


'07090 






j 0>Eh l 





O Q. 


□■ 




id a 


a 


Bg 


Dò 


01 






■■ 7 a -f o 





D < I 








E14Q 













La soluzione di Sam Loyd al suo rompicapo del Klondike. 







Q 7 














K 


H"^ a 


40 





4 


□ 


3 






D*B/ 


0/ 


a 


a 


7 


u 


3 


m 






19090 


70 


50 


a 


a 


6 





8 01 




le 


090J 
17040 


06 
90 


H 





/ 





7 





30 




n 

0/ 


/ 





3 


2 





2 


703 

un 


■70/ 

■he 

|f 06 

4 05 E 


50 3 


0/ 


3 


1 

7 

Q 


17050 


4Q 


E 


4 





2 





/Q7 




-> 



2 


Ui 

IJ020 


0/ 

20 


HJ 





4 





/ 


EJ 


*E 


20 


3 





/ 


a 


J05 
050 


un 


0/0/ 


0.?yj2 





2 





7 


202B 

l n n 


no 

0/0 


40 


30 


/ 


n 


/ 





60/ 





8 


04 


02 





■f- 


u 


3 


0; 


□ 


8 
□ 




7050 


a 


H 


/ 


13 


3 





J02 


in > 


0/0,3 

?H*0 
70/ 


02 


02 


a 


s 


U 


s 


09Q 


4 


06 


n 




U 


2 





90/ 









7 





r 


a 







IQ 


5040 


70 


o 


2 


n 


3 


□ 


701 






Q 11 


o . 


a 





3 





/ 


□1 






■L-Q- 


40 


o 


! 


*u 








l>? 


m 















Un percorso alternativo attraverso il «2 importuno». 



105 



è venduta con una scacchiera più grande 
con 25 palline in ciascun recinto. Per tale 
scacchiera la migliore tra le soluzioni che 
ho catalogato, inviatami nel 1974 da 
Min-Wen di Taiwan, è di 35 mosse. 

Sul «Tribune» di Londra del 7 novem- 
bre 1906, Henry Ernest Dudeney, il Loyd 
inglese, pubblicò il problema consistente 
nel disporre su una scacchiera 16 pedine 
in modo che in nessuna direzione ce ne 



fossero tre in Fila. (Più tardi il problema 
apparve come il numero 317 nel suo 
Amusements in Mathematics.) Per «fila» 
si intende qualsiasi linea retta, non solo 
quelle ortogonali e diagonali. Le pedine 
rappresentano punti al centro delle casel- 
le. Da allora il problema generalizzato, 
che è di solito presentato come «quello 
di non metterne tre in fila», è stato argo- 
mento di vari articoli. 



Il problema principale, ancora irrisol- 
to, consiste nel rispondere alla seguente 
domanda: su una scacchiera quadrata 
avente n caselle di lato (con n maggiore 
di 1) è sempre possibile disporre In get- 
toni in modo che non ce ne siano tre in 
fila? In base al vecchio principio dei 
«cassetti» non si può superare 2n. Nes- 
suna riga o colonna può contenere più di 
due gettoni, e dato che con 2n gettoni ce 




Tipi di scacchiere per la dama cinese. 



106 



ne vogliono 2 in ogni ortogonale, un 
gettone in più porterebbe certamente a 
tre il numero di gettoni su di una riga e 
su una colonna. Un'argomentazione me- 
no banale (sviluppata da R.R. Hall, T.H. 
Jackson, A. Sudbery 
colo Some Advances in the No-Three-in- 
-Line Problem in «Journal on Combina- 
toria! Theory», Serie A, voi. 18, maggio 
1975, pp. 336-341) dimostra che almeno 
n gettoni possono sempre essere piazzati. 
Per grandi scacchiere questi autori dimo- 
strano che ci si può arrivare molto vicini 
a ìn/2 gettoni. 

Michael A. Adena, Derek A. Holton e 
Patrick A. Kelly, nel loro Some Thou- 
ghts on the No-Three-in-Line Problem 
(in Combinatoria! Mathematics: Procee- 
dings of the Second Australian Con/e- 
rence, edito da Holton, voi. 403 delle 
Lectures Notes in Mathematics Springer- 
Verlag, Berlino, 1974), hanno dato noti- 
zia di programmi di calcolo con cui si 
sono trovate soluzioni distinte per n com- 
preso tra 2 e 10. Sono escluse rotazioni e 
riflessioni. Il numero delle soluzioni è, 
rispettivamente, I, 1, 4, 5, 1 1, 22, 57, 51 
e 156. L'illustrazione in alto dà un esem- 
pio per ogni n tra 2 e 10. Si noti la 
sorprendente semplicità e simmetria del- 
la soluzione di ordine 8! 

Nel momento in cui questi autori scri- 
vevano non erano conosciute soluzioni 
per n=)l. Essi diedero una soluzione 
per n- 12, che si è però poi dimostrata 
non valida: non avevano notato due ri- 
ghe con tre in una fila. 

D. Craggs e R. Hughes-Jones della 
University of Kent trovarono nel 1975 
soluzioni per n = 1 1 e n = !2, pubblicate 
in seguito sul «Journal of Combinatoria! 
Theory» (Serie A, Voi. 20, maggio, 1976, 
pagine 363-364) che si possono vedere 
nell'illustrazione in basso. Craggs e 
Hughes-Jones hanno trovato cinque al- 
tre soluzioni per n = 1 1 e tre altre per 
n = 12. Non si conosce il numero totale 
di soluzioni per questi due valori di n e 
nessuno ha costruito una soluzione per 
un quadrato di ordine superiore a 12. 
Richard K. Guy e Patrick A. Kelly, nel 
loro articolo The No-Three-in-Line Pro- 
blem (Canadian Mathematical Bulletin», 
Voi. 11, No 4, 1968 pagine 527-531) 
forniscono argomenti di sostegno alla 
loro ipotesi che il numero di ordini in cui 
il problema è risolvibile con 2n gettoni 
sia finito. Non si conosce quale sia l'or- 
dine minimo per cui il problema non è 
solubile. 

Se restringiamo la definizione di «fila» 
a una riga ortogonale o diagonale, il 
problema è risolto. Il massimo non può 
essere più grande di 2n e 2n è possibile 
su tutte le scacchiere di ordine maggiore 
di I. Per n maggiore di 3, il problema si 
risolve sovrapponendo due soluzioni 
qualsiasi di quel classico problema che 
consiste nel disporre su una scacchiera n 
regine in modo che nessuna regina ne at- 
tacchi un'altra. É sempre possibile farlo 
con una coppia di soluzioni che metta le 
2/i regine su 2n caselle. 

Invece di ricercare il numero massimo 
di gettoni che possono venire disposti su 



• | ♦ _• _• ___?__?_ 

3 •_• • • 

4 • • 



• • | • • • • 

• • • • m_ •_ 

• • • __?__ —— 

_• • _ • _•_ _?__?__ 

• • ___•_ •__ JL* — 

6 • • • • 

_ 



• • • • 

• • • • 

• • • • 

• • • • 

• • • • 
• • • • 

• • • • 

• • • • 

9 • t 



A le une soluzioni per il n 



ì del «Problema del non metterne tre infila». 



dì una scacchiera di ordine n in modo 
che non ce ne siano tre in fila, cerchiamo 
il minimo che se ne può disporre in 
modo che, se si aggiungesse un ulteriore 
gettone su una qualsiasi casella libera, 
avrebbero tre gettoni in fila. Questo pro- 
blema non è ancora stato preso in seria 



considerazione dagli esperti del settore. 
Se intendiamo «fila» nel senso più am- 
pio (una linea retta di orientamento qual- 
siasi), il problema può diventare molto 
difficile. Adena, Holton e Kelly accen- 
nano brevemente a esso nel loro articolo 
e danno i seguenti risultati come i mi- 









• 






• 
























• 






• 








• 














• 












• 


















• 










• 






• 










• 


• 










































• 


• 










• 






• 










• 


















• 












• 














• 








• 






• 
























• 




• 


i 





Soluzioni recenti del problema. 



107 



MATEMATICA 
LE SCIENZE 

edizione italiana di 
SCIENTI FIC AMERICAN 



ha finora pubblicato su questo ar- 
gomento i seguenti articoli: 



LA TEORIA NON 
CANTORIANA DEGLI INSIEMI 

ài P.J. Cohen e R. Hersh (n. 1) 



VERITÀ' E 
DIMOSTRAZIONE 

di A. Tarski (n. 12) 



PROBLEMI NON RISOLTI 
DELL'ARITMETICA 

di H. DeLong (n. 34) 



TRE PERSONAGGI 
DELLA MATEMATICA 

di B. de Finetti (n. 39) 



NUOVI MODELLI DEL 
SISTEMA DEI NUMERI REALI 

di G. Lolli (n. 48) 



L'ANALISI NON-STANDARD 

di M. Davis e R. Hersh (n. 49) 

LE ORIGINI DEL 
CODICE BINARIO 

diF.G. Hearth (n. 51) 

INDUZIONE E PROBABILITÀ' 

di D. Costantini e 
M. Mondadori (n. 58) 

LE ORIGINI DEI CONCETTI 
DI NUMERO 

di C.J. Braìnerd (n. 58) 

IL DECIMO PROBLEMA 
DI HILBERT 

di M. Davis e R. Hersh (n, 66) 

CASUALITÀ' E 

DIMOSTRAZIONE 

MATEMATICA 

di G.J. Chaitin (n. 85) 



gliori da loro ottenuti, senza usare il 
calcolatore, per n compreso tra 3 e 10: 4, 
4, 6, 6, 8, 8, 12, 12. Che io sappia, non è 
noto come continui la successione. 

Il problema rimane irrisolto anche re- 
stringendo «fila» alle ortogonali e alle 
diagonali. In altre parole, qual è il mini- 
mo numero di pedine che si possono 
disporre su di una scacchiera di lato ri in 
modo che non si possa aggiungere una 
pedina senza farne risultare tre in una 
riga, una colonna o una diagonale? Un 
altro modo di considerare il problema è 
quello di vederlo come un gioco nel qua- 
le due giocatori dispongono a turno un 
gettone su una scacchiera quadrata fino 
a che un giocatore perde, facendone 
comparire tre su una fila. Qual è la durata 
minima di questo gioco? 

La figura in basso illustra i migliori 
risultati che ho trovato per gli ordini 
compresi tra 3 e 9. Non ho fatto nessun 
tentativo per trovare tutte le soluzioni, 
tranne che per le scacchiere più piccole. 



Ci sono dozzine di soluzioni per l'ordine 
8, molte con simmetria bilaterale e altre 
con simmetria doppia. (Se 10 è il minimo 
per il quadrato di ordine 8, resta esclusa 
una simmetria quadrupla perché 10 non 
è divisibile esattamente per 4.) Qualche 
lettore è capace di costruire, prima che 
compaia la soluzione il mese prossimo, 
una combinazione di 12 gettoni che co- 
stituisca una soluzione a 12 gettoni con- 
temporaneamente per gli ordini 10, Il e 
12? Non sono in grado di dimostrare che 
12 sia il minimo per questi tre valori ma 
ho proprio l'impressione che sia così. 

Il problema del mese scorso era quello 
di trovare la risposta vincente a una 
certa mossa del primo giocatore in un 
gioco chiamato «Partizione della torta». 
La torta è un rettangolo di 4 X 7. Se il 
primo giocatore taglia la torta vertical- 
mente in un rettangolo di 4 X 3, l'unica 
risposta vincente è tagliare il p^zzo di 4 
x 3 in due rettangoli di 2 X 3. 









• • • ♦ 

• • • 

• • • 

i l l I l 1 ~T7I 

6 TV • 




1 1 1 

• I • 



Soluzioni per il minimo dello stesso problema. 



108